Rassurez-vous, les algorithmes de deep learning ne comprennent pas ce qu’ils voient
Une étude menée par Harvard, Deepmind (Google), le MIT et IBM met en valeur le manque de raisonnement des algorithmes d’apprentissage profond. Ils décrivent ce qu’ils voient, sans en expliquer les causes. Face au même exercice, un algorithme d'IA hybride, mêlant deep learning et IA symbolique, s'est révélé beaucoup plus performant.
Voici une étude qui devrait rassurer les angoissés de l’intelligence artificielle. Menée par des chercheurs de Harvard, de Deepmind (Google), du MIT et d’IBM, le projet a étudié le raisonnement des algorithmes d’apprentissage profond (deep learning) les plus aboutis du moment. Sans surprise, l’intelligence de ces programmes se limite principalement à décrire des scènes. Et sèche lorsqu’il s’agit de les interpréter et d’émettre des suppositions. Face au même exercice, les intelligences artificielles (IA) dites hybrides, qui combinent réseaux de neurones et logique mathématique, se sont révélées beaucoup plus performantes.
[...]Cet article est réservé à nos abonnés L'Usine Nouvelle
Soutenez un journalisme d'expertise.