Certains s’inquiètent de la fin probable de la loi de Moore. Et de son devenir sur les progrès des technologies de l’information.
Pour mémoire, Gordon Moore, l’un des fondateurs d’Intel, a énoncé en 1965 une prévision appelée depuis "la loi de Moore" : le doublement tous les deux ans du nombre des transistors d’un circuit intégré. Et en effet, le nombre de transistors d’un microprocesseur est passé d’environ 1000 en 1970 à plus de 10 milliards en 2020.
Cette croissance exponentielle est à la base de la révolution des technologies de l’information et de la communication et du développement vertigineux des capacités de calcul : votre téléphone est infiniment plus intelligent et moins coûteux que le système qui a permis à la Nasa d’atterrir sur la lune. On observe cependant un épuisement de cette loi. Par exemple, des limites physiques empêchent d’augmenter à l’infini le nombre de transistors : ils atteignent actuellement 3 nanomètres, soit 15 atomes de silicium.
La preuve par l'exemple
Pourtant, l’épuisement de la "loi de Moore" ne siffle pas la fin du progrès technologique. A long terme, l’informatique quantique pourrait prendre le relais des architectures actuelles. Mais, surtout, les gains de performances du digital ont été si rapides qu’ils demeurent encore largement sous-utilisés.
La preuve avec la vidéo suivante qui réussit à enthousiasmer en 2022 un parterre d’experts avec un ordinateur cadencé à 4.7 Mhz qui date de 1981.
Elle pousse les capacités d'un ordinateur de 42 ans très au-delà de tout ce qui a pu être fait à l'époque en termes de graphisme. L’exercice montre qu’au prix d’un temps de développement supplémentaire, on peut tirer beaucoup plus qu’attendu du matériel.
Des machines moins chères que des développeurs
En effet, l’une des conséquences de la croissance des capacités informatiques – généralement moins chères que le temps des développeurs – et qu’on utilise les machines actuelles d’une façon moins poussée et en consommant plus d’énergie que nous ne le ferions si la loi de Moore n’était pas là. Face à un problème difficile, il suffit d’attendre un peu pour que l’augmentation des capacités de calcul règle une difficulté qu’une architecture ou un code optimisé permettraient de résoudre. Les logiciels sont sous-optimisés car conçus sur l’idée que la mémoire, la capacité de calcul ou la consommation énergétique coûtent moins cher que le temps des développeurs.
Une fois la loi de Moore épuisée (ce que certains prédisent à l’horizon de 20 ans, ce qui laisse encore un facteur 1000 pour la croissance des capacités informatiques), il restera donc des décennies à mieux utiliser les capacités informatiques, et à en appliquer les bénéfices dans tous les domaines de l’économie – comme tous ceux qui en 2020 ont du remplir une attestation de sortie en papier le comprendront.