On en sait désormais plus sur l’accident entre un camion semi-remorque et une Tesla Model S qui a coûté la vie à son conducteur en mai 2016 sur une route de Floride. Dans son rapport de 500 pages publié lundi, le Conseil national de la sécurité des transports (NTSB) a donné ses conclusions sur la collision entre les deux véhicules. Joshua Brown, le conducteur de la Tesla avait activé Autopilot mais n’a pas suivi les instructions données par l’appareil.
Lors de son trajet, le système de pilotage automatique lui avait demandé de garder les mains sur le volant pendant 37 minutes, or il ne l’aurait fait que 25 secondes. Le rapport précise que le conducteur avait reçu à différents intervalles sept avertissements visuels avec le message « Hands Required Not Detected », dont six avaient été accompagnés d’alarmes sonores. Malgré cela, la raison pour laquelle le conducteur les a ignorés reste indéterminée.
Tesla une nouvelle fois dédouanée
Au mois de janvier de cette année, de nouvelles conclusions de la National Highway Traffic Safety Administration avançaient que le conducteur aurait eu 7 secondes pour réagir et ainsi tenter d’éviter le drame. Les enquêteurs de l’agence fédérale américaine avaient précisé cependant n’avoir trouvé aucun élément mettant en cause la responsabilité d’Autopilot ou une autre fonction de la voiture.
Si le système Autopilot est une avancée majeure dans le domaine des transports, Tesla a rappelé en juin dernier que les conducteurs «doivent garder le contrôle et la responsabilité de leur véhicule ». Une fois enclenché, il rappelle toujours au conducteur de garder les mains sur le volant et d’être prêt à freiner à tout moment.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
Je me vois mal critiquer un mec mort mais si je puis me permettre :
– A quoi sert l’autopilote si c’est pour que le conducteur soit obligé de rester dans les mêmes conditions que si il ne l’avait pas activé?
– Théoriquement le mec a eu des notifications ( visuels et sonores ), il ne les as pas respecté. Mais sur quoi se basent-t-ils pour dire que le mec a vraiment eu ça? Une boite noire ou leurs lignes de codes? Car l’historique peut dire avoir eu ça mais rien ne certifie à 100% que le mec a vraiment eu ces notifications…
– On ne sait toujours pas ( et on ne saura surement jamais ) pourquoi le mec avait pas ses mains sur le volant et ses jambes prêtes à freiner sachant que même sans les notifications, le fabricant a du lui dire de rester toujours en alerte comme un vrai conducteur malgré le système d’autopilote.
– Le semi-remorque n’est-il vraiment pas en tord dans cette histoire? Car bon, 7sec pour réagir et mourir sur l’accident… c’est court et la voiture devait aller vite ( je ne me suis pas renseigné sur comment cela s’est passé ) donc le semi-remorque pourrait aussi bien être responsable ( au lieu d’accuser forcément le conducteur mort de la voiture ou le logiciel de tesla ).
et je rajouterai: si la personne n’a jamais réagi, est-ce que ce n’est pas une faute du système de continuer à rouler? Genre le mec fait un malaise dans sa voiture mais elle continue quand même de rouler ? Elle n’est pas supposée ralentir et mettre les signaux de détresse ou un truc dans le genre ?
Autopilote pas voiture autonome :). Je pense que c’est ça qui fait toute les différences.
Après je ne connais pas les capacités technique des autopilotes tesla.
oui tout a fait – je suis egalement tres surpris de voir que rien n’est prevu pour que la voiture s’arrete d’elle meme si le conducteur ne respecte pas les indications. egalement, recevoir des notifications toutes les x minutes semble peu suffisant, le systeme devrait balancer une alarme ininterrompue. genre dans toutes les voitures recentes tu as une alarme tres desagreable quand tu n’accroches pas ta ceinture qui ne s;arrete pas tant que t’as pas accroche, et la en roulant sur l’autoroute a plus de 100 a l’heure tu recois juste des “notifications” ???
En fait, l’autopilot est sensé s’arréter en cas d’obstacle. Si tu te refais un peu le résumé de l’accident, “Un souci qui pourrait s’expliquer par la couleur du camion (blanc) ainsi
que par le temps très lumineux qui aurait empêché la voiture de repérer
tous les obstacles.”.
Bref, l’autopilot n’a pas réussi à détecter ce danger là.
Mais bon, le système n’tant pas sensé remplacer le conducteur mais simplement l’assister, il ne peut pas techniquement être mis en cause.
Ormis si et seulement si c’est l’autopilot qui a provoqué l’accident. Comme tourner dans un fossé ou un arbre, ou accelérer contre un obstacle ou dans un virage.
Simplement l’autopilote n’est pas fait ni certifié pour remplacer le conducteur, on est pas dans le cas d’un véhicule autnome qui lui est conçu pour être sans aucune intervention de l’être humain. L’autopilote est une assistance à la conduite, et doit être supervisé par l’humain.
Pour le reste il faudra attendre car l’auteur de l’article n’a sans doute pas constaté que l’on a pas à ce jour le rapport d’enquête final mais un rapport préliminaire, l’investigation n’étant pas close. Le docket qui contient effectivement plus de 500 pages n’a pour uniqque but que de fournir les éléments factuels liés à l’accident.
Le rapport lui sera disponible ultérieurement, une fois l’enquête close.
Il faut utiliser l’autopilot comme pour les aviosn et les pilotes de ligne.
Malgrès que la pluspart des procédures sont automatisée, les pilotes doivent rester concentrés sur le vol et être prêt à chaque instant à reprendre le controle de l’appareil. En aucuns cas ils ne sont censé faire autre choses que surveiller les instruments.
Bah avec l’autopilot de tesla c’est pareil tu dois surveiller ta voiture et être pret à prendre le volant