La gestion des projets complexes

Le blog de Rodolphe Krawczyk

La complexité croissante des modèles aura-t-elle une limite ?

Publié le

La complexité croissante des modèles aura-t-elle une limite ?
© DR

Les moyens informatiques toujours plus performants nous permettront-ils de reculer indéfiniment les limites des modèles numériques  ? Ne risque-t-on pas d’en perdre la maîtrise ?

J’assistais récemment à la présentation des activités menées par de jeunes thésard(e)s du laboratoire scientifique dont je suis membre au titre de ma société, et, comme lors de chaque événement de ce genre, je suis resté perplexe (et admiratif) devant la puissance de travail de ces étudiants. Je suis moi-même tuteur industriel de thésard(e)s depuis plus de 20 ans et j’ai pu constater en ces deux dernières décennies comment les modèles physiques et instrumentaux sont devenus de plus en plus complexes au point qu’on ne peut que se poser la question de savoir si l’on maîtrisera indéfiniment ces modèles : du moins, je me la pose de plus en plus souvent.

Je m’explique :
Chaque nouvelle thèse est censée "capitaliser" les acquis précédents : les sujets totalement nouveaux sont en effet assez rares, et chaque thésard(e) doit donc, avant de progresser dans le sujet qui lui est attribué, ingurgiter les résultats des travaux de ses prédécesseurs sur ce sujet : au fil des ans, on mesure l’ampleur de cette tâche d’assimilation, évidemment nécessaire.
- Cet acquis, déjà complexe en soi, va être enrichi par les résultats de la nouvelle thèse : la complexité va donc croître.
- On conçoit dès lors que seuls les outils numériques puissants capables de gérer des quantités de plus en plus colossales de paramètres et de données peuvent traiter cette modélisation toujours plus complexe de la réalité : car, in fine, c’est bien la réalité que l’on cherche à modéliser pour mieux la connaître et la prédire, autrement dit la contrôler.
- Mais, paradoxalement, à force de pousser la complexification de ces modèles, ne craint-on pas de perdre le fil avec cette réalité dont on cherche justement à s’approcher au plus près ? Sans parler du risque de "bugs" informatiques qui ne peut qu’augmenter tandis que leur détectabilité ne peut que diminuer au fur et à mesure que ces modèles deviennent de plus en plus complexes.

J’ai pris l’exemple des thèses, mais la question se pose aussi, de façon légèrement différente, aux modèles de performances industriels, eux aussi toujours plus complexes pour la même raison, à savoir le contrôle de la réalité :
- L’assimilation des résultats antérieurs est remplacée par l’apprentissage de logiciels de gestion des performances aussi variés que sophistiqués, très souvent en interface les uns avec les autres.
- La démonstration de l’adéquation des performances aux exigences du client se mue alors en un exercice informatique consistant à faire tourner tous les modèles sur les logiciels appropriés : seul un résultat aberrant peut révéler une faille dans un modèle (ou dans un logiciel, aucun logiciel n’étant totalement infaillible [1]).
- Mais, à l’heure où l’"engineering feeling" est devenu proscrit pour des raisons plusieurs fois évoquées dans ce blog, est-on encore capable de "jauger" la pertinence, en termes d’ordres de grandeur, des nombres "crachés" par une machine ? Le doute est permis.

A ces interrogations s’ajoute celle de l’empreinte carbone de ces modèles toujours plus puissants, donc plus gourmands en énergie. Le séminaire Climate Implications of Computing and Communications tenu en mars dernier au MIT a déclaré que d’ici 2040 l’efficacité énergétique de nos moyens de calcul devra être améliorée, du fait des besoins croissants de I'intelligence artificielle, de la blockchain, et des jeux (mais oui !), d’un facteur supérieur à… 1 million !

J’illustrerai mon souci par le projet SKA (Square Kilometre Array), un radiotélescope géant qui comprendra 200 antennes en Afrique du Sud et 130 000 antennes en Australie. Il générera un débit de données de plusieurs dizaines de térabytes par seconde qui nécessitera un archivage de ces données représentant plusieurs centaines de pétabytes par an [2]. Or, aujourd’hui, nous ne savons pas comment nous pourrons stocker toutes ces données : une innovation radicale dans les technologies de l'information et de l’énergie renouvelable sera donc nécessaire, mais l’innovation ne se décrète pas et rien ne permet de dire à ce jour qu’il ne faudra pas revoir à la baisse les ambitions de ce projet, au moins au début.

Il semble qu’on oublie de plus en plus souvent que le cerveau humain ne peut suivre l’évolution des outils à la même vitesse : on imagine compenser ce retard par le recours massif à l’intelligence artificielle et à la robotisation, ce qui n’aboutit qu’à reléguer au rôle d’esclave de la machine ce cerveau dont nous a doté la nature. Dans cette course effrénée, je vois deux fins possibles :
- soit on butera sur des limites dont il faudra bien s’accommoder, ce qui offrira peut-être une chance à l’humain de refaire valoir ses droits ;
- soit on continue indéfiniment, et là…
Je laisse aux lecteurs de ce blog deviner la fin que je (nous) souhaite.

[1] Comme le prouvent les mises à jour incessantes de tous les logiciels bureautiques classiques
[2] Téra = 1012 et Péta = 1015 soit un million de milliards…

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte