Abonnez-vous Identifiez-vous

Identifiez-vous

Vos codes d'accès sont erronés, Veuillez les saisir à nouveau. Mot de passe oublié ?

Entreprise et IA

Le blog de Florian Douetteau

Les leçons à tirer du paradoxe de Bonini à propos de l’utilité des modèles

Publié le

Les leçons à tirer du paradoxe de Bonini à propos de l’utilité des modèles

Le célèbre statisticien britannique George Box, mort en 2013, a appliqué son talent à de nombreux secteurs – analyse des séries temporelles, inférence bayésienne, etc. – sans même parler de sa méthode des surfaces de réponses (MSR), et s’est vu attribuer de nombreuses et prestigieuses récompenses.

George Box, un statisticien sceptique à l’égard de l’utilité des modèles

C’était un homme brillant, qui connaissait son sujet. Peut-être le vrai point de départ de sa célébrité a-t-il été l’affirmation iconoclaste prononcée dans les années 1970 : "Tous les modèles sont faux".

Vous allez peut-être objecter : "Bon, d’accord. Mais c’était il y a cinquante ans. De nos jours, nous avons le deep learning, l’intelligence artificielle, et des technologies autrement plus sophistiquées. Il est impossible de dire que tous ces modèles sur lesquels reposent de plus en plus nos systèmes, et jusqu’à notre vie quotidienne, sont faux. Il ne faisait probablement pas allusion à ces modèles".

Il n’en parlait peut-être pas explicitement, mais dans un sens plus large, il y faisait néanmoins clairement référence. Et quand on prend connaissance de la seconde partie de sa citation – souvent passée sous silence –, son application au monde actuel de l’intelligence artificielle devient encore plus lumineuse :

"Il s’agit de savoir à quel moment l’inexactitude des modèles les rend totalement inutiles." - George Box

A bien des égards, le paradoxe de Bonini s’inscrit dans la continuité de la pensée de George Box, et se trouve maintes fois reflété dans les travaux de nombreux autres statisticiens et mathématiciens actuels, et même de philosophes. L’idée de base est la suivante : le modèle d’un phénomène complexe est aussi difficile à comprendre que le phénomène qu’il est supposé expliquer. Ou, plus généralement, les modèles de systèmes complexes peuvent devenir si complexes qu’ils en deviennent inutilisables.

Un exemple souvent cité pour contextualiser ce paradoxe consiste à imaginer une carte à l’échelle 1:1. Détaillée ? Certes. Mais vraiment utile ? Non, parce qu’inutilisable.

Quelles leçons en tirer ?

Si ces considérations relatives à la complexité et à l’utilité des modèles font l’objet de discussions depuis de si nombreuses décennies, comment en sommes-nous aujourd’hui arrivés à accepter les modèles basés sur le machine learning et, par extension, sur les résultats de l’intelligence artificielle, comme étant des vérités intangibles ?

Les modèles basés sur le machine learning sont déjà à l’œuvre au quotidien, et déterminent même divers aspects de notre vie quotidienne, que ce soit l’octroi ou le refus d’un prêt bancaire, la fixation des prix, la classification entre les clients fidèles et ceux plus volatiles susceptibles de se désengager, etc. Ces décisions ne soulèvent généralement pas de question, ce qui semble acceptable pour l’heure, dans la mesure où les problématiques aujourd’hui prises en charge par les systèmes IA restent relativement peu complexes. Pour autant, j’estime que nous commençons vraiment à empiéter sur la ligne.


A quel moment les solutions deviennent-elles si tarabiscotées qu’elles ne sont plus utiles ?

On peut imaginer que les entreprises, après avoir récolté sans effort les fruits à portée de main, vont essayer de s’attaquer à des questions de plus en plus complexes. Ce qui passera par le développement de systèmes très sophistiqués pour tenter de les résoudre. A quel moment ces systèmes deviendront-ils trop complexes pour rester utiles ? Et quelle sera la réaction des entreprises lorsque les clients ou les utilisateurs commenceront à remettre en question les modèles et à ne plus les accepter comme une vérité établie et intangible ?

Et dans l’avenir ?

La bonne nouvelle étant que, indépendamment du parcours qui nous a conduits où nous en sommes aujourd’hui, les choses commencent à changer. Le monde commence à considérer que la responsabilité en  incombe aux entreprises ou aux personnes qui développent des modèles destinés à fournir des explications. L’intelligence artificielle interprétable a rejoint les nouveaux cycles mainstream. Et c’est une bonne chose. Mais ce ne devrait pas être aux consommateurs ou aux régulateurs d’avoir à réclamer l’interprétabilité de l’intelligence artificielle – ce qui est encore largement le cas aujourd’hui.

Il incombe également aux entreprises d’estimer le niveau de complexité utile dans un modèle, et le moment où l’on bascule dans une complexité trop importante pour expliquer clairement la situation en objet. Autrement dit, si un modèle est élaboré en vue d’apporter une réponse à une question spécifique, la complexité peut alors être appropriée, dans la mesure où ce modèle peut "exécuter" et créer numériquement des prédictions, et obtenir des résultats plus rapidement qu’avec les moyens habituellement utilisés dans la "vraie vie".
Introduire de la complexité afin de comprendre ou de tenter d’expliquer un problème peut donc ne pas être la meilleure chose à faire.

Avec l’intelligence artificielle, les cas d’usage nébuleux peuvent se solder par des modèles inutilement complexes, plus néfastes qu’utiles. La prochaine fois que vous ou votre entreprise aurez à mettre à œuvre une solution en réponse à un problème donné, n’oubliez pas de prendre en compte le paradoxe de Bonini.

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte
Suivez-nous Suivre Usine Nouvelle sur Facebook Suivre Usine Nouvelle sur Twitter RSS Usine Nouvelle