IA : des labos au terrain

Le blog de Sylvain Duranton

Pourquoi l’IA responsable est bonne pour votre entreprise

Publié le

Pourquoi l’IA responsable est bonne pour votre entreprise
La combinaison entre intelligence artificielle et humaine est une des dimensions de l'IA responsable
© Shutterstock

A mesure que les entreprises adoptent en masse l’intelligence artificielle (IA), un nouvel impératif apparaît : l’IA doit être « responsable », « éthique » ou encore « digne de confiance ». Les questions de biais dans les données, de transparence ou de robustesse des algorithmes, largement ignorées il y a trois ou quatre ans, sont de plus en plus souvent mises en avant. Elles ont donné lieu à plus de 60 codes éthiques ou listes de recommandations émanant d’organisations intergouvernementales, d’États, de groupements de chercheurs ou d’acteurs privés.

Beaucoup d’entreprises en ont pris conscience et ont commencé à communiquer sur le sujet, par exemple en nommant un « Chief responsable AI Officer » ou en créant un groupe de travail en interne. Mais cela ne suffit pas. Adopter une véritable démarche d’IA responsable, c’est avant tout engager des actions concrètes : s’assurer que les équipes et les managers qui s’occupent de l’IA au quotidien ont les outils nécessaires pour prendre les bonnes décisions, mais aussi vérifier que les systèmes d’IA ont été suffisamment testés avant leur mise en production, ou que les ingénieurs qui les développent ne sont pas les mêmes que ceux qui les valident. La question de la transparence des algorithmes est également fondamentale, et nécessite de mettre en place des outils d’audit et de contrôle.

Les entreprises qui utilisent l’IA en sont-elles pleinement conscientes ? Combien ont commencé à mettre en place des actions concrètes ? Pour le savoir, BCG GAMMA vient de mener une étude mondiale auprès des dirigeants de 1000 grandes organisations (*). L’objectif était de déterminer leur niveau de maturité dans six dimensions considérées comme les piliers de l’IA responsable : gouvernance des données et de la vie privée ; sécurité et robustesse des algorithmes ; transparence et explicabilité ; responsabilité ; impartialité et équité ; impact social et environnemental. Nous y avons ajouté une septième dimension, moins souvent évoquée mais tout aussi cruciale : la combinaison entre intelligence artificielle et humaine.

Une vision déformée de la maturité en IA responsable

A partir de questions concrètes sur ces sept critères, nous avons pu établir une note sur 100, et ensuite classer les entreprises selon quatre niveaux de maturité en matière d’IA responsable : 14 % d’entre elles sont « en retard », la majorité sont en stade de « développement » (34 %) ou « avancé » (31%), et 21 % se distinguent comme « leaders ». Sur le plan international, les entreprises européennes et américaines sont les mieux placées, avec un index de maturité respectif de 66,8 et 66,3, contre 62 pour l’Asie et 60,7 pour le Moyen Orient.

Au-delà des scores proprement dits, cette étude fait apparaître deux éléments très importants. Le premier est que la majorité des dirigeants surestiment leurs avancées en matière d’IA responsable : 55% des entreprises s’attribuent un score supérieur à la réalité. Cela est vrai quel que soit leur niveau de maturité : même parmi les entreprises qui pensent avoir pleinement implanté un programme d’IA responsable, à peine 46 % ont une vision correcte de leur situation.

Des retombées directes

L’autre enseignement majeur concerne les motivations des entreprises pour passer à l’IA responsable. La majorité d’entre elles en attendent en priorité des retombées directes : 42 % des dirigeants interrogés espèrent des bénéfices pour leur activité, et 20 % souhaitent répondre aux attentes des consommateurs. La réduction des risques (16%), la conformité avec la réglementation (14 %) ou la responsabilité sociale (6 %) arrivent loin derrière. Et plus les entreprises sont avancées dans une démarche d’IA responsable, plus elles en attendent des retombées concrètes. Elles ne le font pas pour des raisons morales ou légales, mais parce que c’est un investissement gagnant, à de multiples niveaux : la réduction des biais dans les données, la transparence des algorithmes, les vérifications avant la mise en production améliorent les performances des systèmes ; la protection des données personnelles et l’explicabilité consolident la confiance des clients et des partenaires, etc.

A l’arrivée, la mise en place d’une culture d’innovation responsable autour de l’intelligence artificielle est un signal fort pour attirer et garder les meilleurs talents, dans un contexte de pénurie de data scientists et de quête de sens des jeunes générations.

Nous sommes persuadés que la confiance dans les outils d’intelligence artificielle va devenir un impératif business et un avantage compétitif : il y aura une distinction de plus en plus forte entre les entreprises qui pourront démontrer qu’elles mettent en place une IA responsable et les autres.

Sylvain Duranton, directeur monde de BCG GAMMA

(*) Enquête réalisée auprès de dirigeants de 1,034 organisations (au moins 2 000 employés et 500 millions de dollars de CA) dans six régions et neuf secteurs d’activité.

 

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte