Abonnez-vous Identifiez-vous

Identifiez-vous

Vos codes d'accès sont erronés, Veuillez les saisir à nouveau. Mot de passe oublié ?

A la conférence FranceisAI, le deep learning montre ses faiblesses et cherche un nouvel élan dans l’IA symbolique

Manuel Moragues , ,

Publié le

La première journée de la conférence FranceisAI, qui se tient ces 17 et 18 octobre à Paris, a fait la part belle aux écueils et limites du deep learning. Cette approche qui a remodelé l’intelligence artificielle (IA) se tourne désormais vers l’IA symbolique qu’elle avait déclassée.

A la conférence FranceisAI, le deep learning montre ses faiblesses et cherche un nouvel élan dans l’IA symbolique
La conférence FranceisAI se tient à Paris les 17 et 18 octobre.
© France is AI

Les entreprises citées

En partenariat avec Industrie Explorer

Signe de maturité ? Le deep learning était bien sûr la vedette de la première journée de la conférence FranceisAI, qui se tient à Paris à la Station F, ces 17 et 18 octobre. Mais cette technologie fondée sur les réseaux de neurones profonds qui a propulsé l’intelligence artificielle (IA) au rang de révolution technologique y a surtout montré ses faiblesses. Et se tourne désormais vers l’IA dite symbolique, qu’il semblait pourtant avoir renvoyé aux oubliettes de l’histoire scientifique.

L’IA se confrontant de plus en plus à la réalité industrielle, le traitement de ses écueils s’impose. Ainsi Yves Raimond, directeur du machine learning chez Netflix, souligne l’importance des relations de cause à effet, ignorées par le deep learning, pour les algorithmes de recommandation. "Il ne faut pas oublier qu’une recommandation est une action, qui a un impact sur les données qui vont alimenter l’algorithme", rappelle-t-il.

Autrement dit, gare aux effets de rétroaction – "feedback". Et le responsable de citer le cas, le plus évident, de la recommandation d’un film sur la base de sa popularité. Une action qui va pousser plus de gens à le visionner, donc à le considérer comme encore plus populaire, donc à le recommander encore plus… "Jusqu’à que l’on recommande le même film à tout le monde, ce qui n’est pas l’idéal d’une recommandation personnalisée", ironise Yves Raimond.

Des biais à détecter et corriger en amont

Travers classique d’une approche fondée exclusivement sur les données, les biais d’apprentissage se sont naturellement invités. A leur charge, le fait que les algorithmes de reconnaissance faciale de Google et consorts reconnaissaient bien mieux les visages d’hommes blancs que de femmes noires. Mais aussi les estimations du fameux logiciel Compass utilisé aux Etats-Unis, dont la tendance à considérer les personnes noires comme plus susceptibles de récidive – incarcération à la clé- a été dénoncée à maintes reprises.

Le machine learning ne peut que reproduire les données du passé dont on l’a nourri, préjugés et autres défauts de représentativité inclus. Le problème est tel que, à l’heure du déploiement à grande échelle de l’IA, la détection et la correction de ces biais doivent être intégrés à la construction des modèles, explique en substance Guillaume Leroy-Meline, d’IBM Services France. L’américain vient de mettre en ligne une série d’outils et de méthodes et les a intégrées dans sa toute récente plate-forme de développement de modèles d’IA, AI Openscale.

Le raisonnement hors de portée

Du côté de la recherche, aussi, le deep learning semble perdre de son aura de technologie miracle. L’un de ses pères fondateurs, le chercheur Yoshua Bengio, explique depuis Montréal que les performances du deep learning se restreignent à un certain type de tâches cognitives comme la perception, tandis que les tâches plus proches du raisonnement sont hors de sa portée. Pire, même dans le cas de la vision, "les modèles peuvent être trompés par quelques pixels judicieusement modifiés, ce qui montre qu’ils n’apprennent que des indices superficiels et non des concepts", tacle le chercheur.

Pour sortir de l’impasse, le deep learning se tourne vers l’IA symbolique. Cette approche historique de l’IA essaye de transcrire dans la machine la façon dont l’esprit fonctionne. Elle s’est illustrée dans les années 1980 avec les systèmes experts, avant de sombrer dans un "hiver de l’IA" puis d’être déclassée par le machine learning. Brutalement délaissée face à la vague du deep learning, l’IA symbolique peut apprécier ce retour en grâce.

Hybrider machine learning et IA symbolique

Yoshua Bengio veut ainsi s’inspirer de l’IA symbolique. Tout comme Antoine Bordes, le directeur de FAIR Paris, le laboratoire d’IA de Facebook, qui cherche à dépasser les limites du machine learning dans le langage. Car si la conversion parole-texte et la traduction sont devenues performantes, le machine learning reste un cancre en matière de compréhension d’un texte, même très simple. D’où son idée : "Créer des architectures qui peuvent être entraînées sur des données mais qui s’appuient sur le symbolique."

Cette hybridation machine learning – approche symbolique est au cœur d’un projet original. Celui de Véronique Ventos, maître de conférences à l’Université Paris Saclay et cofondatrice, en juin, du laboratoire privé NukkAI : "La prochaine génération d’IA aura une architecture hybride combinant les méthodes symboliques et numériques". NukkAI s’est donné pour mission de développer cette hybridation dans un cadre précis : le jeu de Bridge, qui résiste encore à l’IA. Au risque d’agacer la chercheuse, qui se bat contre l’image ringarde du bridge, que l’IA se mette à ce jeu est bien un signe de maturité.

Réagir à cet article

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte
Suivez-nous Suivre Usine Nouvelle sur Facebook Suivre Usine Nouvelle sur Twitter RSS Usine Nouvelle