C’est Philippa Ruth Foot, philosophe britanno-américaine, qui créa le dilemme du tramway en 1967. Un dilemme très simple : un tramway hors de contrôle se dirige vers un groupe de 5 personnes. Vous êtes sur le pont sous lequel il s’apprête à passer. Pour le stopper, il vous faut un objet lourd. Par chance, une personne énorme passe à ce moment-là. Vous avez le choix entre sacrifier cette personne et sauver les 5 autres, ou ne rien faire et laisser les 5 personnes mourir.
Retranscrit aux voitures autonomes, ce dilemme donne : la voiture choisira-t-elle de mettre en danger la vie de son ou ses occupants pour sauver plus de vies directement menacées par la situation ?
Evidemment, on pense immédiatement aux 3 lois de la robotique d’Asimov :
• première Loi : Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu’un être humain soit exposé au danger
• deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi
• troisième Loi : Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi
Selon ces lois, la voiture devrait quoi qu’il arrive, protéger ses occupants. Sauf qu’Asimov ajouta une quatrième loi, nommée Loi Zéro, qui dit qu’un robot ne peut pas porter atteinte à l’humanité, ni, par son inaction, permettre que l’humanité soit exposée au danger. Elle se place en amont des trois autres lois et pose un sacré dilemme et une série de questions puisqu’il est impossible de déterminer si les vies sauvées valent plus le coup que celle(s) épargnée(s).
Cette question fait l’objet d’un débat depuis l’arrivée des voitures autonomes sur nos routes.
Trois chercheurs du MIT (Institut de technologie du Massachusetts), de l’université de l’Oregon et de l’Ecole d’économie de Toulouse ont tenté de trouver une réponse. Pour réaliser leur étude, ils ont confronté 1928 personnes pour réaliser 6 tests les mettant devant des situations variées. Résultat : 75% pensent que la voiture doit sacrifier son occupant. Mais forcément, dès que la personne à sacrifier leur est liée ou proche, la donne change totalement.
Ceci a engendré une réticence envers l’acquisition de véhicules autonomes qui seraient doté d’un algorithme privilégiant le groupe à l’occupant. Et pour cause, les voitures d’aujourd’hui sont vendues comme des cocons ultra sécurisants. Les acheteurs envisagent mal d’acheter une voiture qui pourrait choisir de les sacrifier.
Selon Chris Urmson, responsable des véhicules autonomes chez Google, ces études sont amusantes sur papier, mais trop éloignées de la réalité. De plus, un tel algorithme lance un tas de questions : âges des victimes, situation, droit de présence ou non, engendrant un débat sans fin.
A l’heure actuelle, les voitures évitent d’abord les collisions avec les piétons et cyclistes, puis les autres usagers puis, enfin, les objets inanimés. Mais il n’est pas impossible qu’à l’avenir, une option nous permette de choisir d’activer ou non l’algorithme de notre véhicule autonome. Puis une accessible rapidement, histoire d’avoir le choix jusqu’au dernier moment.
Reste que Jean François Bonnefon, chercheur à l’Ecole d’économie de Toulouse a évoqué qu’une telle étude permet d’estimer plus précisément les coûts et bénéfices de ces véhicules. Du coup, l’équipe a mis au point un site internet (que vous pouvez essayer) permettant de répondre aux situations : moralmachine.mit.edu
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
Pouvoir choisir si on préfère sacrifier un groupe ou se jeter contre un mur avec un algorithme, ça ne pose pas un certain nombre de question juridique ?
Selon moi, c’est un faux débat. Les véhicules autonomes ont et auront de toutes façons moins d’accidents que les véhicules conduits par des humains.
A l’avenir, les véhicules communiqueront tous entre eux, et avertiront : “Attention, je viens de voir des piétons à 7 mètres de la chaussée en direction de cette dernière, ralentis !”. Le mobilier urbain fera certainement de même, ainsi que les téléphone mobiles. Les véhicules sauront en tous temps où se situe qui. Il ne restera alors plus qu’à se soucier des arbres qui tombent et des animaux sauvages en campagne !
Cependant, le risque zéro n’existant pas tu es tout de même obligé de prévoir ce genre de scénario. Dans l’aviation civile, même les problèmes qui ont une probabilité infime sont étudiés pour éviter ce genre de cas.
Et si la voiture d’en ace te dit pas de soucis le groupe de piéton que je viens de croiser est sur le trottoir, et qu’au même moment un gamin lâche son ballon et se jette sur la route pour le récupérer pendant qu’une autre voiture déboule d’une rue adjacente, le faut problème dit quoi dans cette situation ?
Tu gardes ta trajectoire et tu freines à mort.
Soit personne n’est blessé, soit seul le gamin est touché.
Donc tu estime que la voiture doit tuer un enfant, ce qui répond à la question, la preuve que c’est un vrai problème à se poser.
Et si quand un groupe décide de traverser sur l’impulsion d’un des membres, pendant qu’un autre groupe traverse de l’autre coté, qu’un camion pas connecté arrive en face et que le soleil en contre jour brouille la vision des caméras ? T’auras toujours quoi qu’il advienne une situation où la question se posera, et où à un moment ou à un autre il faudra lui apporter une réponse. Car quoi que tu feras, c’est pas du jour au lendemain que 100% des véhicules seront capables de communiquer, et il faudra bien passer par une étape de transition, et même une fois fait, penser à des situations où soit aucune voiture ne te transmet l’information, soit des cas où l’information ne peut être transmise à cause d’un soucis technique.
Bref, c’est un vrai problème, très difficile à résoudre.
La question ne se pose même pas pour la voiture autonome, un objet passe devant elle, elle ralenti donc au moment ou le gamin passe elle peux tout a fait être a l’arrêt (le cas ne pouvant se passer en théorie que sur des routes a 50 hein pas a 90 les voitures autonomes sont pas humaines et ne vont pas au dessus des limitations)
Et dans le cas où le gamin coupe la route sans regarder et que le seul moyen de l’éviter est de faire un écart, vers un autre véhicule sur la gauche ou un groupe de piéton sur la droite ?
Le problème ne se pose pas car par la suite on sera tous équipé d’une micro puce sous la peau à la naissance donc comme le dit neirda tout communiquera ensemble et donc si une voiture détecte un signal d’un enfant qui va peut être traversé elle ralentira avant. Les villes seront aussi équipé de multi caméra d’analyse de multi cible donc les algorithmes pourront définir si il peux avoir un danger ou pas suivant les circonstances. Les caméras seront connecté à un vaste réseau de super calculateur qui analyseront et enverront les infos sur les secteurs/quartiers appropriés.
Et comme dit précédemment, entre le moment où ça va arriver, et le moment où le monde sera full équipé, on fait comment ? Et qi le gamin décide de traverser au moment où la voiture passe parce qu’il n’a pas fait attention qu’elle arrivait, on fait comment ?
Aujourd’hui on apprend aux infos qu’un Américain a été tué dans sa Tesla qui n’a pas vu un camion avec remorque qui lui a coupé la route perpendiculairement.
Un camion avec remorque c’est gros, très gros et le système n’a rien vu ! caméra éblouie par le soleil ? pour le moment il ne savent pas trop.
Alors l’algorithme qui prend les bonnes décisions il n’est pas encore écrit. Sans compter que plus la situation de danger va être complexe plus il va falloir du temps de calcul.
Et plus les véhicules vont vite et moins cela laisse de temps pour choisir le bon algorithme.
Alors pendant longtemps encore on ne va pas se soucier de savoir qui sacrifier et on va recommander lourdement aux conducteurs de véhicules autonomes de garder les yeux sur la route et les mains sur le volant.
Il faut faire comme notre vieil ami Geralt de Riv et choisir le moindre mal, qui dans ce cas m’échappe totalement… Tout comme dans the Witcher à vrai dire…
Aucune vie humaine n’a plus de valeur qu’une autre (même si assurément certains se pensent au dessus des autres). Dès lors aucun algorithme ne peut faire de jugement de valeur sur la pertinence de préserver telle ou telle vie. Pour moi, les seuls paramètres que la voiture devrait prendre en compte sont:
– la légalité de la présence des protagonistes. Ces voitures assureront que leur conduite est exactement conforme au code de la route, si un cas de figure se présente ou la voiture doit choisir entre la vie de ses occupants ou la vie d’un passant ayant traverser en dehors des clous ou au feu rouge, alors c’est le passant qui doit y passer.
– le probabilité de mort minimum. Pour faire simple (ultra simple car un tel algo sera balaise à mettre au point), la voiture doit choisir la configuration qui fera le moins de dégâts humains.
Si ces 2 conditions ne permettent pas de choisir (tous les protagonistes à leur place et probabilité de pertes humaines égales), alors je pense que la voiture doit choisir ne préserver ses occupants car c’est ainsi que réagirait un humain de toutes facons. Il n’y à pas de vérité générale de toutes facons puisqu’on touche à la mort et donc à l’affect, or nous parlons d’un ordinateur qui se base sur des calculs froids et rationnels il faut donc que les règles qui sont codées soit froides et rationnelles.
Sauf que dans le code de la route français, un piéton est TOUJOURS prioritaire par rapport à une voiture, même si celui ci traverse au rouge, même s’il est en dehors d’un passage piéton. De le cas où une voiture renverse un piéton, même s’il n’avait rien à faire là, ça sera toujours le conducteur qui sera en tort.
Pour moi il n’y a pas de doute. le véhicule doit freiner du mieux possible sans dévier de sa trajectoire (coup de volant). Qui meurt a la suite de cette manœuvre c’est la vie qui en décide. Faire une tentative d’évitement pour sauver les passagers au détriment de X, ne me semble pas judicieux. Le risque de sur accident étant encore multiplié. Il faut que le véhicule fasse au mieux pour s’arreter en restant dans l’axe prévu.
Autodestruction!!!
Je comprends l’enthousiasme des voitures autonomes. Mais je crois qu’il y a beaucoup de questions qui ne sont pas posées. Qui va choisir comment fonctionne l’algorithme ? Le constructeur, l’état, etc. Qui va payer les pour les accidents ? Si se sont les assureurs, on imagine bien que ceux qui payent le plus cher seront pris en priorité ? La sécurité informatique qui est on va le dire clairement médiocre on en parle jamais. Le business avant la vie, un moment il va falloir prendre conscience que les voitures autonomes représentent une belle connerie humaine.
c’est pourtant simple : sièges éjectables !!!
la voiture éjecte ses occupants puis se crash toute seule en esquivant les humains.
voilà !
ou bien tout figer dans de l’ambre instantanément, et revenir quand la médecine sera en mesure de tout guérir ^^
Ca va être sympa si la voiture est dans un tunnel ou sous un pont … 😉
Autre question, si le siège éjectable retombe sur une personne, et la blesse, voir la tue. Sur qui retombe la responsabilité ?
Je n’arrive toujours pas a comprendre pourquoi cette question fait autant débat alors que ce ne sont pas des chercheurs sur les automobiles qui se les posent ni meme en informatique, la source de cette question est 2 psychologues.
Hors les machines n’en déplaise a certains meme dans l’informatique qui y croit sont très loin d’etre au niveau des machines d’Asimov et de ses trois lois (ou plutot 4)
La responsabilité de l’un ou l’autre est le critère de base à prendre.
Pourquoi décrit on sacrifier le conducteur d’un véhicule qui roule en respectant les règles pour sauver quelqu’un qui se trouve là où il ne devrait pas…
Monteriez vous dans un véhicule prévu pour vous tuer si quelqu’un d’autre ne respecte pas les règles !!!
Simple, google fait une fournée avec l’algo qui sacrifie les occupants et l’autre qui sacrifie les pietons, comme ca c’est fifty-fifty au petit bonheur la chance, le risque zero n’existe pas et n’existera jamais.
Praise the RNG gods
C’est vite vu, personne n’acceptera de rouler dans une voiture qui sacrifiera ses occupants en cas de risque de tuer des gens extérieurs.
j’ai pa pu ?
vous connaissez la blague de chuck norris qui traverse l’autoroute ? bilan 5 morts xDDDD
Compter le nombre de vies à sauver revient à assimiler ses vies humaines à des objets que l’on compte.
Les mathématiques ont besoin de modéliser tout notre environnement en objets pour pouvoir être utiliser par la physique, l’informatique ou toute autre discipline.
Mais… mais une vie humaine n’est pas assimilable à un objet.
Et c’est encore pire pour une IA qui n’est pas une personne morale. Elle peut très bien vivre avec des dizaines de morts sur la conscience (ces juste une expression) pour peu qu’on la programme pour ça et que quelqu’un d’autre décide à sa place ce qui est bien ou mal.
Je pense qu’il faut d’abord essayer d’éviter l’accident mortel autant que possible, c’est à dire privilégier la solution ayant la plus faible probabilité d’accident mortel.
Dans le cas ou les probabilités sont équivalentes, la voiture doit choisir la solution impliquant le moins de dommages à l’échelle de l’humanité, c’est à dire, en l’absence d’autres critères que la voiture ne peut pas connaître et qu’il serait de toutes façons très difficile de déterminer, la solution faisant le moins de victimes.
Et si finalement les possibilités sont strictement équivalentes d’après les critères précédent, la machine ne peut pas décider et le choix doit être laissé à l’utilisateur, ou à défaut privilégier la protection des occupants de la voiture (il s’agit alors de supposer quel serait le choix des occupants et non d’une décision de l’IA).