Abonnez-vous Identifiez-vous

Identifiez-vous

Vos codes d'accès sont erronés, Veuillez les saisir à nouveau. Mot de passe oublié ?

L'éléphant dans la pièce

Manuel Moragues , ,

Publié le

L'éléphant dans la pièce

" Nous sommes encore très loin de l’intelligence humaine. Les réseaux de neurones entraînés avec des données peuvent être facilement trompés, ce qui montre qu’ils n’apprennent que des indices superficiels et non les concepts. "Difficile, en entendant Yoshua Bengio, célèbre pionnier du deep learning, mi-octobre à la conférence FranceisAI, de ne pas remonter six ans en arrière. Aux premiers exploits de ces réseaux de neurones profonds qui ont révolutionné l’intelligence artificielle. Quand, en 2012, Google Brain fit sensation en présentant un modèle qui, nourri de millions d’images d’animaux, avait de lui-même regroupé celles montrant un chat. " Il a inventé le concept de chat ", clamaient les chercheurs. De cette prétention au concept, à l’abstraction propre à l’intelligence humaine, il n’est plus question aujourd’hui. Pourquoi cette humilité nouvelle ? C’est que depuis 2012, si les extraordinaires performances du deep learning ont ouvert la voie à nombre d’applications, les chercheurs en IA ont pris un malin plaisir à faire tourner en bourrique leurs neurones numériques. Toute une zoologie de méthodes, appelées " adversarial attacks ", a émergé. Prenez par exemple une image de panda, ajoutez-y une légère mais vicieuse perturbation – invisible pour l’humain –, et voilà que le plus expérimenté des systèmes de reconnaissance d’images se met à voir un... gibbon. Ou un chien au lieu de deux skieurs, un bus plutôt qu’une girafe. À chaque fois en étant très sûr de lui. Le pompon, c’est ce récent article de recherche, titré " L’éléphant dans la pièce ". Les chercheurs se sont amusés à incruster l’image d’un éléphant dans une scène – un living-room –, conduisant le réseau de neurones à s’emmêler les pixels : une chaise devient un canapé, des livres disparaissent. Parfois, l’éléphant n’est même pas vu par le modèle... Il est temps de regarder en face cet éléphant : un réseau de neurones se trompe énormément, sans avoir le moindre doute, donc sans possibilité d’alerter un humain. Les risques, liés à la malveillance ou à l’erreur, sont majeurs au vu du déploiement en cours de l’IA. Un panneau Stop peut être pris pour une limitation de vitesse, un visage mal identifié, le sens d’un texte inversé, une commande vocale trafiquée... Les acteurs de l’IA en sont bien conscients, comme le montre ce défi lancé par Google mi-septembre à la communauté du machine learning : trouver un modèle qui ne se trompe pas en toute confiance. Un premier pas.

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte
Suivez-nous Suivre Usine Nouvelle sur Facebook Suivre Usine Nouvelle sur Twitter RSS Usine Nouvelle