Abonnez-vous Identifiez-vous

Identifiez-vous

Vos codes d'accès sont erronés, Veuillez les saisir à nouveau. Mot de passe oublié ?

L'Usine Aéro

Pourquoi Thales a placé son intelligence artificielle sous le signe de l’éthique à Montréal

Manuel Moragues , , ,

Publié le

L’éthique a présidé à la présentation par Thales de ses avancées en intelligence artificielle dans son laboratoire montréalais Cortaix, mercredi 24 janvier. Un choix du groupe, certes, mais aussi une réponse à la mobilisation de la communauté IA et à l’exigence portée par les systèmes critiques sur lesquels travaille Thales.

Pourquoi Thales a placé son intelligence artificielle sous le signe de l’éthique à Montréal
Cortaix, le laboratoire d'intelligence artificielle de Thales, est installé au coeur de l'écosystème montréalais de l'IA.
© D.R.

"Chez Thales, on a tracé des lignes rouges. Les robots tueurs en sont une. Thales n’ira pas sur ce terrain." Patrice Caine a pris une position claire sur la question des armes létales autonomes, mercredi 24 janvier. L’occasion était belle : le PDG de Thales ouvrait à Montréal, dans son centre de recherche en intelligence artificielle (IA), baptisé Cortaix, une journée de présentation des avancées du groupe dans ce domaine, en présence de Yoshua Bengio.

Ce dernier, l’un des pères fondateurs du deep learning et figure de proue de l’IA montréalaise, est très engagé sur les questions éthiques soulevées par l’essor et la diffusion de l’IA, dont les robots tueurs ne sont que l’un des aspects. Au cœur de la déclaration de Montréal pour un développement responsable de l’IA, en décembre dernier, le chercheur a encore insisté ce 24 janvier sur l’importance de réguler le déploiement de l’IA, sous peine de conséquences dévastatrices pour la société.

Intérêt bien compris

"Nous sommes en train d’élaborer une charte éthique sur l’IA et plus généralement sur le digital, tant pour les applications militaires que civiles, lui a répondu Patrice Caine. Elle comportera trois axes : la confiance dans les solutions d’IA que l’on développe ; la vigilance quant à leur finalité ; la gouvernance à installer pour mettre l’éthique au cœur de nos opérations. "

Au-delà des convictions personnelles de Patrice Caine, mettre l’éthique en avant est une question d’intérêt bien compris pour Thales. D'une part parce que le groupe veut recruter quelque 200 spécialistes de l’IA en 2019 et 2020. D'autre part parce que Thales travaille sur des systèmes critiques.

Une communauté de l'IA qui porte les questions éthiques

Impossible de faire l'impasse sur l'éthique si l'on veut attirer des talents. Algorithmes racistes ou sexistes, capacités surestimées, surveillance à la Big Brother… L’éthique s’est imposée en peu de temps comme un enjeu majeur au sein de la communauté de l’IA. "Il s’agit au fond du même type de questions éthiques que les technologies ont suscité depuis 50 ans. Mais ce qui est fascinant avec l’IA, c’est que ce sont ceux qui développent les technologies d'IA qui poussent ces questions. C’est très rare", estime Bryn Williams Jones, chercheur spécialiste de l’éthique intervenant lors d'une table ronde.

Les data scientists et autres spécialistes du deep learning font monter la pression au sein des entreprises, à l'image de Google qui a dû renoncer à l'été 2018 à un contrat avec la Défense américaine (projet Maven) qui mettait l'IA de l'Américain au service de drones militaires. La révélation de ce projet avait suscité un tollé au sein des salariés du groupe, dont d'éminents chercheurs en IA, qui s'étaient massivement opposés à l'usage de l'IA pour la guerre. En octobre dernier, Google abandonnait dans la foulée la compétition pour le méga-contrat (JEDI, 10 milliards de dollars) du cloud du département de la Défense.

Des talents en position de force

"Que les employés de Google poussent la direction à se retirer d'un projet à plusieurs milliards, c'est quelque chose de majeur et nouveau", pointe Bryn Williams Jones. Et le chercheur de poursuivre : "Les data scientists et spécialistes de l'IA sont des talents très demandés. Ils sont en position de force : s'ils sont mécontents de la direction prise par l'entreprise, ils peuvent partir. C'est ce qui fait que les entreprises considèrent aujourd'hui l'éthique comme un avantage compétitif."

Thales s'est retrouvé directement confronté aux préoccupations éthiques des scientifiques de l'IA. "Quand nous avons recruté pour Cortaix, témoigne Siegfried Usal, le directeur du laboratoire, les scientifiques nous demandaient : ‘‘Thales travaille dans la Défense, que faites-vous exactement dans ce secteur ?‘‘ Nous avons bien senti l'importance des questions éthiques. Nous nous devions de les traiter." Directeur développement responsabilité d'entreprise de Thales, Emmanuel Bloch renchérit : "Ces questions sont apparues en interne. Pour maintenir la bonne image de Thales, il était nécessaire d'être à la hauteur sur l'éthique."

Systèmes critiques

L'autre grand intérêt de Thales pour l'éthique dans l'IA tient à la nature de ses métiers, portant pour l'essentiel sur des systèmes dits critiques : signalisation ferroviaire, avionique, systèmes d'armement et de renseignement… Autant d'applications qui demandent d'avoir confiance dans les solutions utilisées. Or la confiance est précisément le grand écueil de l'IA version machine learning, dans lequel les algorithmes sont basés sur l'apprentissage automatique à partir de données.

Erreurs grossières, vulnérabilités à la tromperie, biais liés aux données, inexplicabilité des décisions… Les faiblesses de l'IA sont au cœur des préoccupations éthiques des chercheurs face au déploiement de ces technologies dans la santé, l'administration, la police, le recrutement, etc. Pour Thales, elles constituent un obstacle rédhibitoire à la commercialisation de solutions.  

Besoin d'une IA de confiance

Le groupe axe ainsi ses développements autour d'une "IA de confiance", dont David Sadek, vice-président recherche, technologie et innovation, a énuméré les trois composantes. La première d'entre elles est l'explicabilité. "Il faut être en mesure d'expliquer les résultats de l'IA, et pas seulement a posteriori mais en temps réel, martèle le "Monsieur IA "de Thales. Si le copilote digital recommande de virer de 15 degrés dans 30 miles, le pilote doit pouvoir demander les raisons de cette recommandation."

Autre point clé, la validité : "Il faut prouver qu'un système fait ce qu'on attend de lui, tout ce qu'on attend de lui et seulement ce qu'on attend de lui." Le summum étant d'aller jusqu'à la certification, nécessaire dans l'aéronautique et le ferroviaire, mais le chemin sera long selon Thales, qui n'espère pas d'IA certifiable avant une décennie. La responsabilité est la troisième composante. "Nous devons faire en sorte que nos systèmes se conforment par design à des règles, afin de pouvoir répondre à des exigences juridiques et éthiques", relève David Sadek.

Explicabilité, validité et responsabilité.

Explicabilité, validité et responsabilité. Le tryptique thalésien de l'IA de confiance exigée par ses applications critiques est parfaitement aligné avec les conditions identifiées par de nombreux chercheurs, notamment français, pour un déploiement éthique de l'IA dans la société. La charte éthique que prépare le groupe peut être l'occasion de donner de l'écho à cet alignement, avec à la clé une plus grande attractivité pour les jeunes talents de l'IA.

Les ingrédients sont là pour que la charte de Thales ne se réduise pas à de l'ethics washing. Son élaboration est encore en cours mais Emmanuel Bloch donne déjà un indice sur la façon de l'évaluer : "Le jour où vous refusez un client pour des raisons éthiques, c'est là que vous savez que votre charte éthique n'est pas que du vent. C'est le seul critère."

Réagir à cet article

Testez L'Usine Nouvelle en mode abonné. Gratuit et sans engagement pendant 15 jours.

Nous suivre

 
 

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte
Suivez-nous Suivre Usine Nouvelle sur Facebook Suivre Usine Nouvelle sur Twitter RSS Usine Nouvelle