Pourquoi Thales a placé son intelligence artificielle sous le signe de l’éthique à Montréal

L’éthique a présidé à la présentation par Thales de ses avancées en intelligence artificielle dans son laboratoire montréalais Cortaix, mercredi 24 janvier. Un choix du groupe, certes, mais aussi une réponse à la mobilisation de la communauté IA et à l’exigence portée par les systèmes critiques sur lesquels travaille Thales.

Partager

Pourquoi Thales a placé son intelligence artificielle sous le signe de l’éthique à Montréal
Cortaix, le laboratoire d'intelligence artificielle de Thales, est installé au coeur de l'écosystème montréalais de l'IA.

"Chez Thales, on a tracé des lignes rouges. Les robots tueurs en sont une. Thales n’ira pas sur ce terrain." Patrice Caine a pris une position claire sur la question des armes létales autonomes, mercredi 24 janvier. L’occasion était belle : le PDG de Thales ouvrait à Montréal, dans son centre de recherche en intelligence artificielle (IA), baptisé Cortaix, une journée de présentation des avancées du groupe dans ce domaine, en présence de Yoshua Bengio.

ÉVÈNEMENT
ÉVÈNEMENT

Ce dernier, l’un des pères fondateurs du deep learning et figure de proue de l’IA montréalaise, est très engagé sur les questions éthiques soulevées par l’essor et la diffusion de l’IA, dont les robots tueurs ne sont que l’un des aspects. Au cœur de la déclaration de Montréal pour un développement responsable de l’IA, en décembre dernier, le chercheur a encore insisté ce 24 janvier sur l’importance de réguler le déploiement de l’IA, sous peine de conséquences dévastatrices pour la société.

Intérêt bien compris

"Nous sommes en train d’élaborer une charte éthique sur l’IA et plus généralement sur le digital, tant pour les applications militaires que civiles, lui a répondu Patrice Caine. Elle comportera trois axes : la confiance dans les solutions d’IA que l’on développe ; la vigilance quant à leur finalité ; la gouvernance à installer pour mettre l’éthique au cœur de nos opérations. "

Au-delà des convictions personnelles de Patrice Caine, mettre l’éthique en avant est une question d’intérêt bien compris pour Thales. D'une part parce que le groupe veut recruter quelque 200 spécialistes de l’IA en 2019 et 2020. D'autre part parce que Thales travaille sur des systèmes critiques.

Une communauté de l'IA qui porte les questions éthiques

Impossible de faire l'impasse sur l'éthique si l'on veut attirer des talents. Algorithmes racistes ou sexistes, capacités surestimées, surveillance à la Big Brother… L’éthique s’est imposée en peu de temps comme un enjeu majeur au sein de la communauté de l’IA. "Il s’agit au fond du même type de questions éthiques que les technologies ont suscité depuis 50 ans. Mais ce qui est fascinant avec l’IA, c’est que ce sont ceux qui développent les technologies d'IA qui poussent ces questions. C’est très rare", estime Bryn Williams Jones, chercheur spécialiste de l’éthique intervenant lors d'une table ronde.

Les data scientists et autres spécialistes du deep learning font monter la pression au sein des entreprises, à l'image de Google qui a dû renoncer à l'été 2018 à un contrat avec la Défense américaine (projet Maven) qui mettait l'IA de l'Américain au service de drones militaires. La révélation de ce projet avait suscité un tollé au sein des salariés du groupe, dont d'éminents chercheurs en IA, qui s'étaient massivement opposés à l'usage de l'IA pour la guerre. En octobre dernier, Google abandonnait dans la foulée la compétition pour le méga-contrat (JEDI, 10 milliards de dollars) du cloud du département de la Défense.

Des talents en position de force

"Que les employés de Google poussent la direction à se retirer d'un projet à plusieurs milliards, c'est quelque chose de majeur et nouveau", pointe Bryn Williams Jones. Et le chercheur de poursuivre : "Les data scientists et spécialistes de l'IA sont des talents très demandés. Ils sont en position de force : s'ils sont mécontents de la direction prise par l'entreprise, ils peuvent partir. C'est ce qui fait que les entreprises considèrent aujourd'hui l'éthique comme un avantage compétitif."

Thales s'est retrouvé directement confronté aux préoccupations éthiques des scientifiques de l'IA. "Quand nous avons recruté pour Cortaix, témoigne Siegfried Usal, le directeur du laboratoire, les scientifiques nous demandaient : ‘‘Thales travaille dans la Défense, que faites-vous exactement dans ce secteur ?‘‘ Nous avons bien senti l'importance des questions éthiques. Nous nous devions de les traiter." Directeur développement responsabilité d'entreprise de Thales, Emmanuel Bloch renchérit : "Ces questions sont apparues en interne. Pour maintenir la bonne image de Thales, il était nécessaire d'être à la hauteur sur l'éthique."

Systèmes critiques

L'autre grand intérêt de Thales pour l'éthique dans l'IA tient à la nature de ses métiers, portant pour l'essentiel sur des systèmes dits critiques : signalisation ferroviaire, avionique, systèmes d'armement et de renseignement… Autant d'applications qui demandent d'avoir confiance dans les solutions utilisées. Or la confiance est précisément le grand écueil de l'IA version machine learning, dans lequel les algorithmes sont basés sur l'apprentissage automatique à partir de données.

Erreurs grossières, vulnérabilités à la tromperie, biais liés aux données, inexplicabilité des décisions… Les faiblesses de l'IA sont au cœur des préoccupations éthiques des chercheurs face au déploiement de ces technologies dans la santé, l'administration, la police, le recrutement, etc. Pour Thales, elles constituent un obstacle rédhibitoire à la commercialisation de solutions.

Besoin d'une IA de confiance

Le groupe axe ainsi ses développements autour d'une "IA de confiance", dont David Sadek, vice-président recherche, technologie et innovation, a énuméré les trois composantes. La première d'entre elles est l'explicabilité. "Il faut être en mesure d'expliquer les résultats de l'IA, et pas seulement a posteriori mais en temps réel, martèle le "Monsieur IA "de Thales. Si le copilote digital recommande de virer de 15 degrés dans 30 miles, le pilote doit pouvoir demander les raisons de cette recommandation."

Autre point clé, la validité : "Il faut prouver qu'un système fait ce qu'on attend de lui, tout ce qu'on attend de lui et seulement ce qu'on attend de lui." Le summum étant d'aller jusqu'à la certification, nécessaire dans l'aéronautique et le ferroviaire, mais le chemin sera long selon Thales, qui n'espère pas d'IA certifiable avant une décennie. La responsabilité est la troisième composante. "Nous devons faire en sorte que nos systèmes se conforment par design à des règles, afin de pouvoir répondre à des exigences juridiques et éthiques", relève David Sadek.

Explicabilité, validité et responsabilité.

Explicabilité, validité et responsabilité. Le tryptique thalésien de l'IA de confiance exigée par ses applications critiques est parfaitement aligné avec les conditions identifiées par de nombreux chercheurs, notamment français, pour un déploiement éthique de l'IA dans la société. La charte éthique que prépare le groupe peut être l'occasion de donner de l'écho à cet alignement, avec à la clé une plus grande attractivité pour les jeunes talents de l'IA.

Les ingrédients sont là pour que la charte de Thales ne se réduise pas à de l'ethics washing. Son élaboration est encore en cours mais Emmanuel Bloch donne déjà un indice sur la façon de l'évaluer : "Le jour où vous refusez un client pour des raisons éthiques, c'est là que vous savez que votre charte éthique n'est pas que du vent. C'est le seul critère."

Partager

NEWSLETTER Aéro et Défense
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Recevez directement leurs décryptages et analyses dans votre boîte mail:

Votre demande d’inscription a bien été prise en compte.

L'inscription aux newsletters vaut acceptation des Conditions Générales d'Utilisation. Lire la suite

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

Fermer
LES ÉVÉNEMENTS L'USINE NOUVELLE

Formation

Manager de l'environnement de travail

Paris - 16 mars 2021

Services Généraux

Maîtriser les aspects de sécurité au travail de votre fonction

Trophée

TROPHÉES DES USINES 2021

Live et replay - 27 mai 2021

Gestion industrielle et Production

Déposez votre dossier avant le 5 février pour concourir aux trophées des usines 2021

Formation

Espace de travail et bien-être des salariés

Paris - 01 juin 2021

Services Généraux

Optimiser l’aménagement du bureau

LES SERVICES DE L'USINE NOUVELLE
ARTICLES LES PLUS LUS