Des autocollants leurrent la conduite autonome de Tesla
En déposant des petits autocollants sur les routes, il est possible de tromper le système d’autopilotage de Tesla et de l’envoyer sur la voie de circulation opposée. Le défaut de sécurité est rapporté par une étude du Tencent Keen Security Lab publiée en mars 2019.
Elon Musk ne s’était pas trompé en demandant à l’équipe du Tencent Keen Security Lab de débusquer les failles du système de conduite autonome de ses voitures Tesla.
En mars, l’équipe, spécialisée dans la recherche en sécurité, a dévoilé une étude où elle explique comment elle a induit en erreur le système de conduite autonome de la berline sur des points fondamentaux pour la sécurité du passager. Elle a communiqué ses résultats à l'entreprise qui dit avoir réglé les problèmes techniques sous-tendus par ces tests.
VOS INDICES
source
Passons sur les essuie-glaces que les hackers ont pu activer en l’absence de pluie, en projetant des images d’orage sur une télévision directement placée en face de la voiture.
Des carrés blancs collés au sol
Les chercheurs ont surtout réussi à attaquer le système visuel de la voiture lui permettant de distinguer les voies de circulation. En plaçant des discrets autocollants sur la voie où la voiture était engagée, ils ont réussi à faire passer la Tesla sur la voie adjacente, en circulation contraire, et ce en plein jour, sans neige, poussière, ou autre forme d’interférence.
Le Tencent Keen Security Lab explique : "Nous avons collé trois discrets et petits carrés au sol au niveau d’un croisement. Nous espérions utiliser ces carrés pour guider le véhicule en conduite autonome dans la ligne de circulation opposée. Comme le contre la Fig 34 [en photo d'article], les cercles rouges représentent les autocollants. Le véhicule les perçoit comme le prolongement de la voie de droite et ignore la 'vraie' voie de gauche de l’autre côté de l’intersection. Résultat, quand elle arrive au croisement, elle prend la vraie voie de gauche pour sa voie de droite, et s’engage dans la mauvaise voie."
Une attaque facile à développer
"Ce type d’attaque est facile à développer", poursuit le rapport, "et les accessoires sont simples à utiliser", surtout que l’humain au volant pourrait aisément ne pas identifier les sources du problème. Dans la mesure où Tesla utilise une vision par ordinateur pure pour reconnaître les voies de circulation et que la manipulation porte sur la vision par ordinateur, l’étude tend à prouver que cette architecture présente des risques en termes de sécurité.
Tesla a répondu en déclarant que cette situation était trop éloignée d’une situation réelle pour être crédible, et qu’elle ne correspondait pas à un accident "in real-world", dans la "vraie vie".
SUR LE MÊME SUJET
Des autocollants leurrent la conduite autonome de Tesla
Tous les champs sont obligatoires
0Commentaire
Réagir