Abonnez-vous Identifiez-vous

Identifiez-vous

Vos codes d'accès sont erronés, Veuillez les saisir à nouveau. Mot de passe oublié ?

IA : des labos au terrain

Le blog de Sylvain Duranton

Le bon sens : antidote aux "Algolems" (2/3)

Publié le

Le bon sens : antidote aux Algolems (2/3)
© ra2 studio/Fotolia

Dans cet article que vous pourrez découvrir en trois volets, je reviens sur les dangers de l’IA et notamment sur ceux des "Algolems", ces IA autonomes que plus personne ne contrôle. Le bon sens humain est aujourd’hui l’unique moyen de lutter contre ces dérives potentielles. La première partie de l'article est accessible ici

 

Les dirigeants ont pour coutume de fixer à leurs équipes des objectifs et des règles qui ne tiennent pas toujours compte des moyens et des réalités. Heureusement, les salariés disposent de bon sens, de déontologie et de valeurs morales pour gérer certaines situations en sus des consignes qui leur sont données.

En témoigne cet exemple d’un employé : “évidemment, je ne suis pas censé accorder une telle remise à ce client, néanmoins si je ne le fais pas, je le perds” ; ou bien “cette personne âgée devrait faire la queue, comme tout le monde, mais je vais la faire passer devant les autres”. Ou encore, "je ne dois pas laisser partir des clients qui n’ont pas payé leur facture, or, dans ce cas précis, il peut s’avérer plus stratégique de leur donner du temps”.

Le problème des algorithmes est qu’ils n’ont aucun "sens des affaires" et ils sont dépourvus de bon sens, de morale… Ils sont en inadéquation totale avec l’ambigüité du monde réel. Libres d’agir, les algolems sont ainsi capables de prendre, à la vitesse de la lumière, des millions de décisions inappropriées, générant de fait un risque pour la rentabilité et la réputation des entreprises concernées.

Et il ne s’agit pas ici d’algorithmes conçus par des personnes malveillantes, souhaitant contourner les lois ou faire la propagande d’idéologies extrêmes.

Afin d’éviter les risques liés au recours à l’intelligence artificielle, les entreprises doivent avant tout apprendre à en anticiper les conséquences inattendues. Elles gagneraient ainsi à mettre en place des garde-fous pour s’assurer que l’IA ne soit pas utilisée de façon aléatoire. Ces dispositifs peuvent être codés directement dans l’algorithme et leur efficacité testée via l’usage d’indicateurs de performance.

Dans certains cas, les garde-fous peuvent être relativement faciles à créer. Par exemple, une célèbre chaîne de fast-food a développé un système pour envoyer des promotions personnalisées à ses consommateurs les plus fidèles. Si ces opérations spéciales ne dépendaient que de l’algorithme, l’entreprise proposerait tellement de repas peu chers que cela nuirait à la santé de ses clients. Heureusement, cette société a eu "le bon sens" de limiter ses promotions hebdomadaires en nombre de calories.  

Les situations ne sont néanmoins pas toujours si simples et il n’est pas toujours possible de poser des garde-fous. C’est pourquoi les managers doivent anticiper les risques éthiques et déontologiques afin de mieux détecter les risques potentiels liés à l’IA.

 

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte
Suivez-nous Suivre Usine Nouvelle sur Facebook Suivre Usine Nouvelle sur Twitter RSS Usine Nouvelle