Dans l'accident mortel d'Uber, le logiciel n’était pas programmé pour repérer "un piéton hors des clous"
La cycliste mortellement percutée par une voiture autonome en mars 2018 aux Etats-Unis avait bien été repérée par le logiciel, mais avait été considérée comme un "objet", révèle un rapport américain. Uber affirme avoir rectifié la sécurité de son système.
Dans un rapport du Conseil national de la sécurité des transports (National Transportation Safety Board, NTBS), publié en vue d’une audition le 19 novembre prochain, les enquêteurs ont affirmé que le système de sécurité du modèle d’Uber "ne prenait pas en compte l’éventualité de piétons traversant en dehors des clous."
Une erreur qui avait coûté la vie à une Américaine de 49 ans, en mars 2018, alors qu’elle traversait de nuit une route d'Arizona son vélo à la main. La vidéo de surveillance de la voiture qui avait filmé l’accident, très relayée à l’époque, avait fait grand bruit, dans le contexte des premiers tests de voitures autonomes aux Etats-Unis. Après le drame, les essais de voiture autonome sur la voie publique avait été stoppés, avant de reprendre quelques mois plus tard.
VOS INDICES
source
(Véhicule Uber impliqué dans l'accident mortel en Arizona en mars 2018, extrait du rapport de la NTBS)
Un "objet non identifié" repéré mais volontairement ignoré par le logiciel
Dans le rapport préliminaire datant de mai 2018, la NTBS avait déjà démontré que "le système ne l'a jamais classée comme piétonne" mais comme un "objet". Le logiciel avait donc repéré un obstacle mais avait préféré l’ignorer pour éviter de mettre en danger le conducteur.
Les données provenant de l’ordinateur de bord ont permis de constater que les radars de la voiture avaient repéré 6 secondes avant l’impact un "objet non identifié" sur la voie, alors que le véhicule était lancé à 80km/h. Le système informatique a alors affiné son analyse, déterminant tour à tour l’objet comme véhicule, puis comme une bicyclette. Mais à aucun moment le logiciel n’a analysé la cycliste comme une piétonne, n’étant pas programmé pour ce genre de situation (un piéton traversant en dehors des passages cloutés).
Quand le logiciel a déterminé qu’une collision était imminente, à 1,3 seconde de l’impact, il n'a pas déclenché le freinage d'urgence pour ne pas risquer une perte de contrôle du véhicule, et a averti le conducteur par un signal sonore. Ce-dernier a appuyé sur la pédale de frein moins d’une seconde avant la collision, trop tard.
37 accidents entre septembre 2016 et mars 2018 impliquant des véhicules autonomes
C’est l’autre bilan que dresse le document de la NTBS. En un an et demi de tests sur la voie publique, de septembre 2016 à mars 2018, des véhicules autonomes Uber ont été impliqués dans 37 accidents. Mais ils sont à l’origine de la collision dans seulement deux d’entre eux.
SUR LE MÊME SUJET
Dans l'accident mortel d'Uber, le logiciel n’était pas programmé pour repérer "un piéton hors des clous"
Tous les champs sont obligatoires
0Commentaire
Réagir