Abonnez-vous Identifiez-vous

Identifiez-vous

Vos codes d'accès sont erronés, Veuillez les saisir à nouveau. Mot de passe oublié ?

Elon Musk et 115 dirigeants mettent en garde contre les robots tueurs intelligents

Xavier Boivinet

Publié le

Dans une lettre ouverte, 116 chefs d’entreprise des secteurs de la robotique et de l’intelligence artificielle mettent en garde les Nations Unies. Selon eux, la combinaison possible de ces technologies pour développer des armes létales constitue un réel danger.

Elon Musk et 115 dirigeants mettent en garde contre les robots tueurs intelligents
Selon les signataires de la lettre, l'utilisation de l'intelligence artificielle dans le développement d'armes létales représente un danger réel.
© Stephen Bowler from wakefield, UK

Un robot parcourt Los Angeles à la recherche d’une jeune femme pour l’assassiner. En 1984, le scénario du film Terminator n’est que pure science-fiction. Aujourd’hui, il inquiète certains dirigeants d’entreprises dans le domaine de l’intelligence artificielle (IA). Dans une lettre ouverte publiée dimanche 20 août, 116 d’entre eux, dont Elon Musk, mettent en garde contre son utilisation potentielle dans les armes létales. Ils appellent à une prise de conscience du public et des politiques face à une technologie qui ne nous menace pas encore mais dont le potentiel de nuisance est fort.

Progrès technologique contre lenteur politique

“Les travaux dans le domaine de l'intelligence artificielle progressent très rapidement", affirme Raphaël Cherrier, fondateur et PDG de Qucit et signataire de la lettre ouverte. Sa start-up utilise les données urbaines et l’intelligence artificielle pour optimiser et sécuriser les déplacements en ville. Il met en garde contre la rapidité des progrès technologiques face à la lenteur des prises de décisions politiques. “Ce genre de sujets doit se décider à l’échelle mondiale, donc vous imaginez l’inertie… Si on ne commence pas à s’en préoccuper suffisamment en amont, on peut être surpris.”

Certains dispositifs autonomes capables de tuer sont déjà régulés : les mines antipersonnel. "Cette lettre ouverte que nous avons signée concerne les éléments actifs, précise Jérôme Monceaux, fondateur de la société Spoon spécialisée dans les robots interactifs. Nous voulons alerter contre les machines qui analysent l'environnement, déterminent une cible et l'exécutent." Pour Raphaël Cherrier, "ce sont des armes non-conventionnelles qui doivent être traitées comme telles.” C'est à dire contrôler leur prolifération, voire les bannir.

Une barrière éthique menacée

Si des armes encore inexistantes alarment déjà certains professionnels, c'est que la question de leur faisabilité ne se pose plus. "Développer une arme offensive capable de prendre une décision et de tuer n'est pas quelque chose de si compliqué que ça, affirme Jérôme Monceaux. Ce n'est pas un déballage technologique incroyable."

De plus, leur potentiel de dissémination est fort. “Les logiciels se baladent facilement, précise M. Cherrier. Et les plans de la partie robotique peuvent très aisément être diffusés.” Selon lui, la reproduction de ce type d’armes non-conventionnelles est bien plus difficile à contenir que d’autres, comme les armes nucléaires, qui nécessitent l’acquisition de connaissances de pointe.

Donc si les drones armés ne tuent pas encore de manière autonome, c'est pour une raison morale. "Il y a encore une barrière éthique", précise M. Monceaux. "Mais si elle existe, c’est parce que la technologie n’est pas assez fiable, ajoute Raphaël Cherrier. Le jour où elle le sera à 99,9%, la barrière éthique deviendra plus difficile à défendre."

Une question de responsabilités

Pour Jérôme Monceaux, tout le débat porte sur la déresponsabilitation d'un tel dispositif offensif autonome. Qui prend la décision de tuer ? "Cette lettre ouverte propose de ne jamais confier à une machine cette décision. Il faut qu'elle soit portée par un Homme, de manière à ce qu'on puisse remonter la chaîne des responsabilités."

La publication de cette lettre intervient alors qu'il a été décidé en mai dernier d’annuler des réunions d’un Groupe d’experts gouvernementaux qui devaient se tenir cette semaine. Du 21 au 25 août, ils auraient dû mener une réflexion sur les systèmes d’armement autonomes et létaux dans le cadre de la révision de la Convention des Nations Unies sur certaines armes classiques. Mais faute de financements suffisants de la part des participants, elle n’aura pas lieu. Une deuxième session est prévue du 13 au 17 novembre 2017. 

Réagir à cet article

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte
Suivez-nous Suivre Usine Nouvelle sur Facebook Suivre Usine Nouvelle sur Twitter RSS Usine Nouvelle

Les cookies assurent le bon fonctionnnement de nos sites et services. En utilisant ces derniers, vous acceptez l’utilisation des cookies.

OK

En savoir plus