La voiture autonome est à nos portes, et devrait sérieusement se démocratiser dans les 20 années à venir. Nous évoquions d’ailleurs récemment un trajet Paris-Bordeaux réalisé sans encombre au début du mois d’octobre. Mais l’avènement de la voiture sans conducteurs soulève de nombreuses questions. Si l’aspect technologique intéresse la plupart d’entre nous, les véhicules autonomes posent également des problèmes éthiques et moraux. Des chercheurs du CNRS (et d’autres universités américaines) se sont focalisés sur ces derniers, en étudiant différents cas de figure incluant des accidents mortels.
Parmi les exemples cités dans l’étude, un en particulier met en lumière cette problématique. Lancé à 60 km/h, un véhicule autonome voit débouler un groupe de dix personnes au milieu de la route. Alors que le choc parait impossible à éviter, le véhicule doit faire un choix : sacrifier le conducteur en s’encastrant dans un mur ou le préserver, mais tuer plusieurs piétons. Un choix terrible, que l’intelligence artificielle de la voiture doit pourtant pouvoir faire.
Ces questionnements sont essentiels puisqu’ils pourraient être déterminants dans la commercialisation et la mise en avant de cette technologie. Le choix ne revenant plus au conducteur, ce genre de programmation pourrait en effet décourager des acheteurs potentiels.
Le chercheur Jean-François Bonnefon et ses collègues ont d’ailleurs compris l’importance de l’opinion publique sur le sujet. Ils ont donc soumis ce dilemme à des centaines de télé-travailleurs, en leur demandant quelle décision leur voiture devrait prendre selon eux. Les participants étaient soumis à plusieurs scénarios, à travers lesquels un ou plusieurs piétons pouvaient être sauvés si le véhicule fonçait dans une barrière, en tuant l’occupant ou même un autre piéton esseulé.
Les interrogés ont globalement répondu en faveur de la minimisation du risque, quitte à perdre la vie. Cet altruisme, qui pourra étonner certains, reste à prendre avec des pincettes. En effet, les participants ont indiqué qu’ils préféraient que les gens utilisent des voitures autonomes programmées comme cela plus qu’ils ne comptent les conduire eux-mêmes. L’étude indique donc qu’ils ne pensent pas en tant que conducteur, mais plutôt en leur qualité de piéton.
Cette enquête passionnante (disponible ici en PDF) peut paraître précoce, mais Bonnefon estime au contraire que la « moralité algorithmique » est un sujet éthique d’une importance capitale vu la possible explosion de ce marché.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
Le role d’une voiture autonome est de proteger son conducteur a tout prix, toute autre approche condamne les véhicules autonomes.
Sinon c’est trop facile, pour tuer un mec il suffira de debouler a 10 devant sa voiture bien lancée. ..
Il y ont pensé a cela les Einstein de comptoire?
Votre réponse frise le ras des pâquerettes. Justement les capteurs installés sur toute la structure du “véhicule autonome”, comme vous dite, ont un rôle, hautement pointu, de surveillance d’une zone qui couvre au moins 100 à 200 m autour du véhicule. Distance largement suffisante pour évaluer les risques quels qu’ils soient. Par exemple : détection d’un gamin turbulent, accompagnant sa mère avec un landau ; une ou des personnes âgées qui traverse par inadvertance au feu rouge ; un groupe de 10 personnes qui traversent n’importe où ; une personne qui décide inopinément de se jeter sur ce véhicule (là, suicide manqué !…quelques bosses peut-être, because ?, arrêt instantané ou quasi instantané du véhicule).. Etc, etc.
Il faut ajouter que dans une voiture il n’y a pas forcement que le conducteur…
Si j’ai mes enfants dans la voiture, je préfère écraser 100 piétons et préserver la vie de mes enfants…
C’est bien sa, le problème de “l’éthique”
Le “mieux” c’est tuer le conducteur et ses passagers et préserver les 100 piétons…
En gros le moins de perte…
Personnellement, si mes enfants font partis des 100 personnes que tu choisis de tuer délibérément pour sauver égoïstement et hypothétiquement les tiens, je peux te garantir que tous ceux qui portent ton nom y passe, gamin comme parents, dans la voiture ou pas. Et je finis par un tour d’honneur avec toi accroché à l’arrière de ma voiture.
Pour revenir à l’enquête, un conducteur humain face à un tel dilemme moral choisira pratiquement tout le temps de se protéger, et ne risque pratiquement rien pénalement, même en cas d’infraction. Il est donc hypocrite de se poser cette “question morale” maintenant et uniquement pour les voitures autonomes. Comme indiqué dans l’article, il s’agit ici uniquement de rassurer le client.
Sinon, en imaginant que la voiture autonome n’est pas en infraction (normalement le cas) et donc les piétons le sont, dans le cas ou le choc est inévitable et la probabilité de survis du conducteur et de ses passagers (protégés par l’habitacle et ses systèmes de sécurité) est basse, il faut privilégier les gens à l’intérieur du véhicule. Mais ces cas seront extrêmement rares, une vitesse excessive en étant pratiquement toujours la cause…
Vos propos ne sont que pure provocation. Je crois que vous avez compris que toues ces options étaient irréalistes. En effet, les voitures sans conducteurs sont par destination, autrement plus respectueuses, que tout conducteurs… du code de la route, donc de tout ce qui dérogerait à celui-ci, notamment la vitesse.
Déjà, ne comptez pas rouler à “tombeau ouvert” en ville. Par ailleurs, les capteurs installés sur ces véhicules permettent aux ordinateurs d’empêcher les surprises désagréables. C’est leur rôle par définition. Donc pas de soucis pour’ vos enfants.
On en vient aux lois de la robotique édictées par Asimoov.
Y’a quand même un certain nombre de problèmes qui sont apparemment pris à l’envers dans leur étude. Considérant que je suis dans une voiture autonome, je ne peux pas en être le conducteur, donc je suis un victime potentiel et en aucun cas responsable potentiel.
Comment alors choisir entre 2 victimes ? Laquelle vaut plus que l’autre.
Autre question : la voiture autonome n’est-elle pas censé respecter l’ensemble des règles du code de la route et des précautions de vigilance nécessaire ? Dans ce cas, les personnes dans le véhicule et le véhicule lui-même ne pourra jamais être responsables d’un accident mais de l’erreur d’un autre.
En gros, si on est 4 dans la voiture et qu’un groupe de tarés déboule devant, le fautif est le groupe de tarés mais comme ils sont plus nombreux, il vaut mieux tuer les occupants alors que leur véhicule respectait toutes les règles en vigueur et pas le groupe ?
Sur la route, on peut dire ce qu’on veut, mais dans un cas comme ça, si nos réflexes le permettent et si la question se pose vraiment dans le sens “qui doit vivre” alors on fera tous la même chose, on appelle ça instinct de survie ou de conservation, et c’est sans doute ça qui doit prévaloir.
C’est pas compliqué, en gros si le piéton déboule alors que c’est rouge (donc sa faute) ben faut l’écraser, mais si c’est la voiture qui faute, faut la faire cracher…
Mais ce dernier cas n’es pas réel !
@Piwai
Un poil différent, mais connexe tout de même: si je veux te tabasser, te piquer tes documents ultra-secrets, te violer, … je me mets devant ta voiture pour la faire s’arrêter (s’il le faut, avec ma voiture qui ralentit devant la tienne, c’est pas un problème), et tu ne peux _rien_ faire. Est-ce que cela ne suffit pas à condamner les véhicules autonomes?
@Nico206
Je dirai même plus: “dans une voiture autonome il n’y a pas forcément de conducteur”. Raison supplémentaire pour vouloir privilégier la vie des occupants.
Mais je crois que les philosophes oublient une question: dans la vraie vie, avec de vrais conducteurs et dans les situations étudiées, il se passe quoi? Parce que s’il s’agit juste de faire mieux qu’un humain qui bourrine sa pédale de frein et ferme les yeux en étant crispé sur le volant, on devrait y arriver. La différence entre l’humain et la machine, c’est que cette dernière ne pourra pas ignorer sa programmation et donc qu’il faut faire un choix moral lors du développement du logiciel, en anticipant toutes les éventualités. Mais quels que soit les choix retenus, il y aura des drames, et ceux-ci resteront des injustices pour les victimes, même si des universitaires en discutent pendant des siècles autour d’une table en bois précieux.
La seule réponse équitable dans une situation où l’issue est fatale est le tirage au sort; il n’y a pas d’autre solution. Parce qu’on ne peut pas demander à une machine de choisir entre les deux futurs prix Nobel (encore âgés de 5 et 7 ans), le bourreau des Carpates (mais repenti), le politique véreux, le milliardaire qui a assez vécu, le chômeur dépressif, la femme enceinte adultère, le cardiaque, Bruce Willis, ou le mec lambda qui n’a pas de compte Twitter, d’évaluer l’importance de chacun pour la société, d’estimer les blessures engendrées par la collision, … Dans une situation d’urgence, un conducteur fait quelques choix inconscients (je fixe cet enfant que je ne veux pas écraser mais j’en oublie de tourner le volant, ou au contraire je fais ce qu’il faut pour ne pas tuer cet enfant mais je vais finir par renverser ce landau que je n’avais pas vu, …), et laisse le reste au hasard. Pas de raison que ça soit différent en automatique.
TL;DR : Random behavior. Next question please.
Pour moi la priorité revient aux passagers, qu’importe la quantité de personnes en face, car dans l’absolu les imprévus sont effectivement des imprévus et que donc la ou les personne(s) en face n’avaient nullement à se trouver à ce moment là, c’est triste à dire mais c’est comme ça.
Autant dire si on prend les devant pour les imprévus il peut se passer aussi cela : imaginons que la voiture évite les gens en face et prend une direction sur un côté et que sur ce côté il y avait un porte (ou une rue) où des gens sortent en masse à cause d’un incident et donc la voiture tue le passager ainsi que les gens qui tentaient de sortir…
Allons-y encore, imaginons aussi dans une ville la voiture tourne encore pour éviter ces fichus passant en face et tourne vers un mur mais qu’en fait le mur est en verre (style un salon de coiffure) et bien là bim ! On tue les gens dans le salon…
Allez, soyons encore plus fou : la voiture tourne encore pour éviter les gens en face là bim elle rentre dans une personne qui sort d’une bouche d’égout car il y faisait des travaux… (lol)
Non, sérieusement les imprévus reste pour moi des imprévus on a pas à calculer pour qui l’on doit sauver, par contre on doit calculer comment éviter les accidents de façon optimale. Et de toute façon les piétons on eux aussi leurs responsabilités (et ce depuis toujours), les piétons devraient avoir assez de jugeotes pour savoir où et quand traverser, ne pas rester en plein milieu, ne pas traverser dans les virages etc !
Et en effet, comme l’ont précisé certains, on est pas forcément seul dans la voiture, et il y a aussi le cas où des gens feraient exprès de s’exposer devant le véhicule (des personnes folles ou bien sous l’emprise de stupéfiants, etc…).
Imaginons deux personnes qui traversent imprudemment. La puce décide d’envoyer la voiture dans le mur pour épargner les deux piétons. Elle décide ainsi parce qu’elle “sait” qu’il n’y a qu’un passager dans la voiture et choisit la solution de moindre mal.
Problème : la chaussée est mouillée, ou il y a une flaque d’huile ou de gasoil, la trajectoire de la voiture ne suit plus celle décidée par la puce et là, c’est le drame, elle heurte un abri bus et fauche une dizaine de persononnes.
Cela fait froid dans le dos de penser que l’électronique décide qui doit mourir sans tenir compte des responsabilités. on entre dans une ère où les robots vont décider qui doit mourir, dans une société complètement déshumanisée.
Autre cas de figure : un dépressif se jette du haut d’un pont autoroutier. Au contact du sol il meurt instantanément.
Le malheur fait qu’au même moment un véhicule arrive. La puce décide d’éviter l’obstacle et envoie le véhicule dans le décor.
Bilan : pour éviter un cadavre la puce provoque un ou plusieurs morts dans la voiture.
Enfin, quand on connait le pouvoir de persuasion des lobbies il n’est pas interdit de penser que les compagnies d’assurances interviendront pour qu’on programme les puces afin d’envisager les solutions les plus économiques financièrememnt, c’est-à-dire celles qui permettent de choisir la solution qui épargne le plus de vies.
Cela peut paraître concevable mais, là encore, il ne sera pas tenu compte des responsabilités et beaucoup plus de gens mourront pour rien, simplement parce qu’une intelligence artificielle aura décidé qu’ils font partie de la solution la moins lourde en termes de vies.
Tout cela pour dire qu’il faudrait que les algorithmes soient singulièrement puissants, et que les chercheurs du CNRS (et des autres universités américaines) ont bigrement du pain sur la planche pour débrouiller cet imbroglio éthique.
Il est vrai que toutes vos questions sont intéressantes. Je trouve justement que ce genre de réflexion (certes terrible, mais nécessaire) est assez fascinante !
Le débat promet d’être passionnant ! Ca met à la lumière du jour des questions éthiques comme le libre arbitre, par exemple, où aussi remettre l’humain au centre des choses. Entre un groupe de 10 centenaires et un groupe de 9 enfants, je suppose que beaucoup choisiraient de sauver les neufs enfants…
Par ailleurs, Piwai soulève également un point très juste : on pourrait donc tuer quelqu’un facilement. Une chose est sur, le code de la route devra lui aussi évoluer afin d’être adapté à ces véhicules. Par exemple, en programmant des arrêts systématiques avant un passage piéton, ou bien en rendant les piétons responsables d’une traversée hors passage clouté. Ou alors on adaptera aussi les infrastructures afin d’éviter certains accidents.
Ce débat n’est pas sans rappeler le film I-Robot, qui commence en abordant un problème similaire, ainsi que les dévires des lois de la robotique d’Isaac Asimov.
Le sujet est loin d’être clos ! 🙂
La question des enfants rend le sujet encore plus épineux. Je préférais mourir que de tuer un seul enfant. Mais si dans la voiture, il y des enfants, et qu’il y a 6 piétons adultes. Doit-on faire une pure différence algorithmique, ou bien prendre en compte l’espérance de vie? C’est vrai, si c’est un groupe de six vieux (allez 70 ans), et que nous avons 3 enfants dans la voiture (10-12-15 ans). Nous tuerons plus de personnes en leur roulant dessus, mais pour autant l’espérance de vie détruire sera bien plus faible. (ainsi que les économies sur la retraite… 😀 ) Et puis à ce moment là, on pourrait adapter le processus. Vaut-il mieux tuer 5 enfants en leur roulant dessus plutôt que de sacrifier une personne importante (genre ministre)? Ou 5 SDF plutôt que deux riches…
Et puis dernière question . Si le véhicule décide de rentrer dans le mur. Si le constructeur n’est pas en tort (car il aurait décidé de respecter la loi N°1337 du code de la robotique), est-ce que les piétons seront condamnable? Car au final, c’est en traversant qu’ils ont condamné à mourir le conducteur.
Bref autant de question éthique qui ne pourront probablement jamais trouver réponse. Car l’éthique est différente de la croyance et du bon sens.
Les responsables de cette étude prennent le problème à l’envers désolé pour tout les commentaires précédant mais c’est pareil, vous répondez à coté…
ça ne sert à rien de débattre sur qui doit mourir, la solution est simplissime, et à déjà été maintes porter sur l’écran dans de nombreux films de sciences-fiction.
Dans le cas d’un parc homogène de véhicules autonomes, il n’y a absolument aucune raison que le facteur humain est accès de lui même au réseau routier sans être dans le dit “véhicule autonome”
le danger c’est le facteur humain, si on l’enlève de devant le volant, c’est raisonnable et logique de l’enlever aussi de la chaussé…
“Oh mon dieu, vous allez conduire en manuel ?????”
Susan Calvin “I,Robot”
Pourquoi choisir.
Inventer des voitures autonomes devrait aller de paire avec la sécurité.
En somme rajouter à une voiture autonome un dispositif pour ce genre d’accident.
J’ai lancé l’idée… réfléchissez maintenant au “comment”.
Dommage : Je me rends compte que les mecs qui y réfléchisse ne viennent pas sur le JDG.
Ces questions sont inutiles, car en réalité le choix appartiendra à celui qui possède le véhicule.
Pour vendre le véhicule autonome les constructeurs seront obligés de le régler sur “Je protège dans tous les cas mon propriétaire”. Et les voitures réglées selon les choix moraux du CNRS ne se vendront qu’a quelques idiots qui sont très loin de la réalité.
Si la société impose une morale robotique suicidaire il y aura des “jailbreaks” en masse.
Un inconnu ou même 10 inconnus valent dans tous les cas moins chers qu’un membre de ma famille, et quoiqu’il arrive moins cher que moi. Cela peut paraitre psychotique, mais c’est la réalité, ne soyons pas hypocrites. Et j’attend que les robots à mon services réagissent de même.
C’est une réalité commerciale, le robot qui préfère tuer ma famille plutôt que les imbéciles d’en face se vendra moins bien.
C ‘est une vision de la société horrible, mais imposer à tous des choix moraux de salle des profs orientera la société vers un modèle infiniment plus sombre.
Il n’est pas concevable je pense de sacrifier les occupants de la voiture pour deux raisons :
– Normalement la voiture autonome respect le code de la route donc elle ne peux pas être en tord (donc pourquoi faire trinquer les occupants?)
– Si l’imprévu n’est pas 10 piétons mais un morceau de bois ou un objet, la voiture tue les passagers pour sauver… pas grand chose…
C’est peut être pour cela qu’on appel cela une voiture autonome et qu’on utilise pas le terme voiture intelligente.
S’agissant de la conduite en ville, ce questionnement est idiot, par contre sur route dégagée hors agglo ça peut rester pertinent.
En effet la voiture sans conducteur aidée par son ordinateur (qui évalue aussi finement que possible l’environnement du véhicule sur une distance de quelques centaines de mètres), devrait donc adapter sa vitesse à la dangerosité supposée de cet environnement urbain. La vitesse ne peut donc pas être supposée de 60 km/h…Eh oui ! La limite en ville étant déjà limitée à 50 km/h, voire de 30 km/h à certains endroits. Donc cet instrument “intelligent”, commencera par choisir après analyse quasi-instantanée, une vitesse adaptée. C’est à dire à 20, 15, 10 km/h, …peut-être et au cas où la baisse serait insuffisante, suivi d’un arrêt en urgence. Justement pour éviter les chocs mortels., et les chocs tout courts.
Tout autre raisonnement ne tient pas “la route”, sans jeu de mot. Par contre l’éducation des piétons, des occupants de ces véhicules est nécessaire, pour les sensibiliser sur une autre forme de déplacement. Comme par exemple compter sur un véhicule qui pourrait traverser une agglomération “à fond la caisse” pour gagner du temps par exemple. Comme il n’y aura plus que ce type de véhicules, Ils pourront se gratter pour faire de la vitesse. Il faudra pour cela qu’ils aillent sur des circuits, ou sur les autoroutes ou là l’environnement sécurisé à outrance là aussi, pourra le leur permettre.
Reste donc la défaillance éventuelle du véhicule, (ordinateur H.S, éclatement d’un pneu?) qui peut éventuellement poser question. Mais certainement pas sur le plan de la moralité.
@ Piwai +1
On peut déjà le voir à l’heure actuel où dans les pays de l’est, les gens se jettent sur les voitures est courant pour des fraudes à l’assurance. Pire, en Chine, où les gens préfèrent achever les piétons lors d’un accident parce qu’ils doivent payer leurs soins et donc la mort peut coûter moins cher que des soins pendant 50ans…
De plus, en France, le conducteur est responsable par rapport à un piéton, on est donc façonné moralement par ça et cela fausse le sondage…
Si l’on part de l’hypothèse de la responsabilisation à 50 à 50. Il faudrait connaitre le nombre de victime potentiel et la responsabilité de chacun. L’ordinateur ne sacrifiera pas une voiture avec 4 occupant si 2 personnes traversent n’importe comment et inversement, il ne sacrifiera pas 50 traversant s’il n’y a que 2 passagers.
Je crois que tout le monde s’égare en voulant donner, à tout prix, un peu de corps à une moralité supposée dans les choix que devrait prendre, en urgence, les ordinateurs d’aide à la conduite des véhicules sans conducteurs en cas d’accidents fortuits. Dans le cas présent, et dans tous les cas de figure proposés, avec en finalité, un accident mortel provoqué par un véhicule roulant à 60 km/h.
Je dis et je répète, que rien de cela ne peut se produire, dans un environnement sous contrôle de capteurs reliés à ces ordinateurs embarqués. En effet, les différents capteurs qui truffent la structure de ces véhicules, alimentent en permanence les ordinateurs de bords qui traitent instantanément des millions d’informations à l’aide d’algorithmes (qui permettent les choix) performants. En cas de danger imminent détecté, ceux-ci commencent, toujours par le choix de baisser la vitesse, pour l’adapter à la situation, puis en 2ème choix et en complément, fait intervenir le freinage, et enfin au besoin, 3ème choix, arrête le véhicule. Le tout (les 3 choix pouvant être inversés) effectué dans un laps de temps frisant la seconde, voire la micro seconde.
Par ailleurs il faut savoir que ces capteurs collectent des infos dans une zone d’au moins 200 m voire plus (moins serait déraisonnable), tout autours de la voiture. Et si un danger est détecté d’où qu’il vienne, dans cette zone… Il ne peut pas y avoir de choc !.
Et si malgré cela, il y a choc… Alors là !, ce n’est même pas la peine d’avoir des véhicules sans conducteur. Voilà la seule réponse à donner.
Pour revenir sur les cas soumis, tout cela me parait irréaliste. Car en effet, un véhicule sans conducteur ne roulera jamais à 60 km/h en agglomération (vitesse limitée à 50 km, voire 30 km dans certains secteurs )… Sinon ces véhicules sont à proscrire, de tous les catalogues des constructeurs… Pour terminer par une pointe d’humour… VW, serait-il dans le collimateur.