Dans un article publié par la prestigieuse revue Science, trois chercheurs en sciences comportementales posent une question morale fondamentale liée à l’émergence des voitures autonomes : dans la situation (certes improbable) où la voiture doive choisir entre tuer plusieurs piétons ou tuer son passager en les évitant, quelle décision l’algorithme devra-t-il prendre ? Faut-il imposer le sacrifice des passagers au nom de la vie des autres ? Question d’autant plus complexe que, contrairement à un accident classique, le conducteur-passager n’aurait rien à se reprocher…
Voilà qui rappelle le célèbre paradoxe de David Hume dans le Traité de la Nature Humaine (II, III, 3) : « Il n'est pas contraire à la raison de préférer la destruction du monde entier à une égratignure de mon doigt. » Nos passions, fondées dans nos expériences de nous-même et du monde, gouvernent nos préférences morales. Peut-on demander à un être vivant de se sacrifier, sans entrer en contradiction avec la vie elle-même, qui nous enjoint d’augmenter nos plaisirs et de minimiser nos peines ? Loin de s’imposer à l’homme comme une source de connaissance supérieure, « la raison est et ne doit qu’être l’esclave des passions ». Pour un empiriciste tel que Hume, être raisonnable, c’est simplement choisir les moyens appropriés à nos fins. Autrement dit, s’assurer que l’algorithme nous épargnera… Les 2000 participants à l’étude de Science ne semblent d’ailleurs pas penser autre chose, puisque 70% d’entre eux assurent qu’ils préféreraient acheter une voiture programmée pour tuer les piétons.
|