L'Usine Auto

Des autocollants leurrent la conduite autonome de Tesla

Esther Attias , , , ,

Publié le

Vidéo En déposant des petits autocollants sur les routes, il est possible de tromper le système d’autopilotage de Tesla et de l’envoyer sur la voie de circulation opposée. Le défaut de sécurité est rapporté par une étude du Tencent Keen Security Lab publiée en mars 2019.  

Des autocollants leurrent la conduite autonome de Tesla
Un cas de figure illustrant la situation où le véhicule Tesla est trompé par des carrés collés au sol.
© Tencent Keen Security Lab

Elon Musk ne s’était pas trompé en demandant à l’équipe du Tencent Keen Security Lab de débusquer les failles du système de conduite autonome de ses voitures Tesla.

En mars, l’équipe, spécialisée dans la recherche en sécurité, a dévoilé une étude où elle explique comment elle a induit en erreur le système de conduite autonome de la berline sur des points fondamentaux pour la sécurité du passager. Elle a communiqué ses résultats à l'entreprise qui dit avoir réglé les problèmes techniques sous-tendus par ces tests.

Passons sur les essuie-glaces que les hackers ont pu activer en l’absence de pluie, en projetant des images d’orage sur une télévision directement placée en face de la voiture.

Des carrés blancs collés au sol

Les chercheurs ont surtout réussi à attaquer le système visuel de la voiture lui permettant de distinguer les voies de circulation. En plaçant des discrets autocollants sur la voie où la voiture était engagée, ils ont réussi à faire passer la Tesla sur la voie adjacente, en circulation contraire, et ce en plein jour, sans neige, poussière, ou autre forme d’interférence.

Le Tencent Keen Security Lab explique : "Nous avons collé trois discrets et petits carrés au sol au niveau d’un croisement. Nous espérions utiliser ces carrés pour guider le véhicule en conduite autonome dans la ligne de circulation opposée. Comme le contre la Fig 34 [en photo d'article], les cercles rouges représentent les autocollants. Le véhicule les perçoit comme le prolongement de la voie de droite et ignore la 'vraie' voie de gauche de l’autre côté de l’intersection. Résultat, quand elle arrive au croisement, elle prend la vraie voie de gauche pour sa voie de droite, et s’engage dans la mauvaise voie."

Une attaque facile à développer

"Ce type d’attaque est facile à développer", poursuit le rapport, "et les accessoires sont simples à utiliser", surtout que l’humain au volant pourrait aisément ne pas identifier les sources du problème. Dans la mesure où Tesla utilise une vision par ordinateur pure pour reconnaître les voies de circulation et que la manipulation porte sur la vision par ordinateur, l’étude tend à prouver que cette architecture présente des risques en termes de sécurité.

Tesla a répondu en déclarant que cette situation était trop éloignée d’une situation réelle pour être crédible, et qu’elle ne correspondait pas à un accident "in real-world", dans la "vraie vie".

 

Réagir à cet article

Testez L'Usine Nouvelle en mode abonné. Gratuit et sans engagement pendant 15 jours.

Les entreprises qui font l'actu

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte