"Les biais sexistes de l'IA peuvent être corrigés", selon les chercheuses Aude Bernheim et Flora Vincent

Docteures en sciences et fondatrices de Wax Science, une association pour la mixité dans les sciences, Aude Bernheim et Flora Vincent viennent de publier "L’Intelligence artificielle, pas sans elles !". Un ouvrage où elles décortiquent les biais sexistes de l’intelligence artificielle.

Partager
Dans leur ouvrage, Aude Bernheim et Flora Vincent dénonce la reproduction de nos biais sexistes dans les produits d’intelligence artificielle.

L’Usine Nouvelle – Votre livre s’intéresse au sexisme dans l’intelligence artificielle (IA). Comment caractérisez-vous ce phénomène ?

Aude Bernheim et Flora Vincent – Le sexisme dans l’intelligence artificielle revêt deux facettes. La première correspond au sexisme qui court dans le numérique et en particulier l’intelligence artificielle. Beaucoup de témoignages et chiffres le montrent. Un des plus marquants : 56% des femmes occupant un poste technique dans les entreprises de ce domaine le quittent en milieu de carrière. Mais il existe un deuxième aspect au problème. Les produits de l’IA eux-mêmes sont sexistes. C’est là-dessus que nous voulons sensibiliser.

A LIRE AUSSI

Le sexisme à l'heure du digital

Comment fonctionnent ces biais sexistes de l’IA ?

D’abord ces produits reproduisent nos stéréotypes de genre. Nous constatons par exemple que les logiciels de traduction donnent aux mots anglais "doctor" et "nurse", qui ne sont pas genrés, une traduction genrée en français, soit un docteur et une infirmière. A l’inverse, l’expression "je cuisine", quand elle est traduite dans une langue où le "je" n’est pas neutre, est traduite dans une version féminine. L’autre aspect des biais sexistes est qu’ils peuvent propager des inégalités. C’est le cas par exemple d’un algorithme proposant un salaire, qui reproduira le fait que les femmes sont payées en moyenne 24% de moins qu’un homme à compétences égales. Une étude portant sur les publicités ciblées de Google a aussi montré qu’à des profils équivalents, les offres d’emploi envoyées aux femmes étaient moins rémunérées.

Comment lutter contre ces biais ?

Techniquement, nous savons répondre à ces problèmes. En observant comment sont construits ces algorithmes, en déroulant la trame qui va de la conception jusqu’au produit, nous avons pu identifier les espaces où un biais sexiste peut s’insérer. C’est ce que nous appelons les étapes de la contagion sexiste. L’une de ces étapes par exemple renvoie au jeu de données utilisé pour entraîner un algorithme. Si ces données sont biaisées, l’algorithme le sera aussi. Ce phénomène a notamment été soulevé par la chercheuse américaine Joy Buolamwini, qui a observé que les logiciels de reconnaissance faciale ne l’identifiaient pas bien. Cette défaillance venait du fait que cette chercheuse était une jeune noire alors que les algorithmes avaient été entraînés sur un jeu d’images comprenant essentiellement des hommes blancs de 30 à 50 ans. Voilà un biais technique très précis que l’on sait corriger.

Vous parlez également de propagation du sexisme dans votre livre. Qu’entendez-vous par là ?

Les développeurs utilisent beaucoup de plate-formes de partage de code, comme GitHub. Cela signifie qu’une base de données créée à un endroit peut être réutilisée partout dans le monde. Or si cette base est biaisée, on a un énorme problème de propagation. Cela est flagrant dans le domaine de la reconnaissance faciale, où tout le monde utilise les mêmes briques de codes et base de données d’apprentissage. Mais cela signifie qu’en changeant une base de données, on peut avoir un impact fort. C’est là la force et faiblesse de la réutilisation du code : les biais se propagent vite mais leur correction peut rapidement toucher beaucoup de personnes. Il est important que ceux qui codent et qui évaluent les algorithmes aient conscience de ces phénomènes.

Peut-on apprendre aux codeurs à développer des algorithmes inclusifs ?

Nous défendons la création dans les écoles informatiques de modules pour apprendre à "coder l’égalité". Car les modes d’écriture des algorithmes ont leur rôle dans la création des biais. En littérature, deux personnes ayant les mêmes consignes et les mêmes règles d’orthographe écriront deux textes différents. Dans le langage informatique, c’est la même chose. C’est également pour cela qu’il est crucial d’avoir plus de femmes dans les métiers de l’IA. Quand un directeur d’université commande un algorithme pour trier les dossiers de candidatures reçus, il faut définir ce qu’est un bon dossier. Cela renvoie à des choix subjectifs mais qui deviendront objectifs une fois intégrés dans un algorithme. Le développeur va faire des choix entre la demande formulée et sa traduction mathématique. La manière dont il perçoit le monde a donc un impact important sur l’algorithme et ses biais. Le message de celui qui commande l’algorithme également. Cette personne doit avoir conscience des biais possibles pour donner les instructions les plus précises.

L’IA peut-elle à l’inverse servir l’égalité ?

L’IA est un outil puissant qui peut reproduire autant de biais sexistes qu’il peut en combattre. Cette technologie a des biais sexistes mais elle peut aussi être mise au service d’une société plus égalitaire.On peut demander à un algorithme apprenant à partir d’une base de données où les femmes sont moins payées que les hommes de proposer des salaires égaux. On peut aussi lui demander de privilégier les candidatures féminines. Il est très facile d’implémenter dans un code informatique que les cents premiers profils Linkedin proposés pour un poste dans la tech soient ceux de femmes. Ici la question n’est pas technologique mais éthique. Il s’agit de savoir à quel point nous voulons utiliser la technologie pour changer la réalité. En sachant qu’il est peut-être plus facile de modifier des lignes de code que les mentalités.

"L’Intelligence artificielle, pas sans elles !", Belin, collection "Egale à égal" du Laboratoire de l’égalité, 112 pages, 8,50 euros.

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER Innovation

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

LES ÉVÉNEMENTS L'USINE NOUVELLE

LES PODCASTS

A Grasse, un parfum de renouveau

A Grasse, un parfum de renouveau

Dans ce nouvel épisode de La Fabrique, Anne Sophie Bellaiche nous dévoile les coulisses de son reportage dans le berceau français du parfum : Grasse. Elle nous fait découvrir un...

Écouter cet épisode

Les recettes de l'horlogerie suisse

Les recettes de l'horlogerie suisse

Dans ce nouvel épisode de La Fabrique, notre journaliste Gautier Virol nous dévoile les coulisses de son reportage dans le jura suisse au coeur de l'industrie des montres de luxe. 

Écouter cet épisode

Le rôle des jeux vidéo dans nos sociétés

Le rôle des jeux vidéo dans nos sociétés

Martin Buthaud est docteur en philosophie à l'Université de Rouen. Il fait partie des rares chercheurs français à se questionner sur le rôle du jeu vidéo dans nos...

Écouter cet épisode

Les coulisses d'un abattoir qui se robotise

Les coulisses d'un abattoir qui se robotise

Dans ce nouvel épisode de La Fabrique, Nathan Mann nous dévoile les coulisses de son reportage dans l'abattoir Labeyrie de Came, dans les Pyrénées-Atlantiques, qui robotise peu à peu...

Écouter cet épisode

Tous les podcasts

LES SERVICES DE L'USINE NOUVELLE

Trouvez les entreprises industrielles qui recrutent des talents

WESER

Technicien Qualité (H/F)

WESER - 03/10/2022 - CDI - TOURS

+ 550 offres d’emploi

Tout voir
Proposé par

ARTICLES LES PLUS LUS