Abonnez-vous Identifiez-vous

Identifiez-vous

Vos codes d'accès sont erronés, Veuillez les saisir à nouveau. Mot de passe oublié ?

Sprint final vers le quantique

, , , ,

Publié le

Les travaux sur l’ordinateur quantique ont connu en 2017 une accélération phénoménale. La suprématie quantique pourrait être démontrée dans quelques mois.

Sprint final vers le quantique
IBM, qui propose déjà un ordinateur de 16 qubits accessible dans le cloud, vise un ordinateur quantique universel avant dix ans.

Cette fois, c’est la bonne ! Depuis l’idée fondatrice du physicien américain Richard Feynman en 1982, l’ordinateur quantique est régulièrement annoncé pour dans dix ans. C’est encore le cas aujourd’hui, mais il y a tout lieu de croire que, cette fois, l’échéance ne sera pas repoussée. Le mythique ordinateur quantique universel capable d’effectuer les calculs les plus complexes en un éclair est sur les rails. Et sans l’attendre, le calcul quantique s’impose au programme des informaticiens et gagne les industriels [lire page 30]. « Il y a eu une vraie accélération cette année à la suite de l’investissement de grands industriels. 2017 restera comme une année importante pour l’ordinateur quantique », estime Eleni Diamanti, chercheuse CNRS au Laboratoire d’informatique de Paris 6 (LiP6) et vice-directrice du Paris centre for quantum computing. Même son de cloche chez Atos : « D’énormes progrès ont été réalisés ces deux dernières années », apprécie Arnaud Bertrand, à la tête des activités big data du français. « Tout le monde commence à se rendre compte que l’on n’est pas loin de sortir une machine », résume Bernard Ourghanlian, le directeur technique et sécurité de Microsoft France.

Un besoin exponentiel de puissance de calcul

L’année a vu l’apparition de prototypes toujours plus avancés. Dernier en date, celui dévoilé par Intel à la mi-octobre : une puce de 17 qubits, ces bits quantiques au pouvoir faramineux qui remplacent les bits classiques [lire l’encadré]. IBM a annoncé en mai deux nouveaux processeurs : l’un de 16 qubits, accessible à tous dans le cloud, l’autre de 17 qubits, qui doit servir de base à un modèle commercial. En janvier, c’était le pionnier D-Wave qui doublait la puissance de sa machine. « L’informatique quantique est à un point d’inflexion, passant de la recherche fondamentale théorique à une phase d’ingénierie et de développement », conclut un rapport de Morgan Stanley paru fin août. Xavier Vasques, le directeur technique de la division systems hardware d’IBM France, situe pour sa part « le point d’inflexion à 2016, quand IBM est parvenu à maîtriser de bout en bout le process de fabrication d’une puce quantique ». Et de renchérir sur les analystes de Morgan Stanley : « On n’est plus dans la théorie, mais dans l’industrialisation. »

La course à l’ordinateur quantique tourne au sprint industriel entre géants américains, tandis que des start-up comme Rigetti et IonQ se lancent, que le chinois Alibaba progresse et que les États investissent. Des dizaines de millions de dollars ont été annoncés par le Canada et l’Australie, l’Europe déboursera près de 1,3?milliard d’euros sur les technologies quantiques. Selon Accenture, environ 1?milliard d’euros ont déjà été investis dans l’ordinateur quantique dans le monde en 2016. Ce n’est qu’un début car derrière l’accélération de ces dernières années se cache un réel besoin. « Nous sommes obligés d’aller vers l’ordinateur quantique car le besoin de puissance de calcul croît toujours plus vite alors que la loi de Moore montre ses limites », explique Philippe Vannier, le conseiller du groupe Atos pour la technologie. Cette loi empirique qui stipule que la puissance des processeurs double tous les dix-huit mois a servi de guide à l’industrie des semi-conducteurs des décennies durant. « Mais en 2016, rappelle Arnaud Bertrand, les fabricants de puces ont annoncé qu’ils ne suivraient plus la loi de Moore. La miniaturisation approche des limites physiques. On ira jusqu’à une finesse de gravure de 2 nanomètres, mais probablement pas plus loin. » Et pas la peine de songer à augmenter la fréquence des processeurs – leur rapidité de traitement –, celle-ci stagne depuis près de dix ans à environ 4 gigahertz à cause d’un échauffement devenant rédhibitoire au-delà.

Objectif 50 qubits

Graal du calcul, l’ordinateur quantique devient un impératif. Ses qubits exotiques promettent monts et merveilles pour le tri et la recherche de données, les problèmes d’optimisation – de la finance à la supply chain en passant par la planification –, la simulation de molécules et des calculs comme la factorisation en nombres premiers, au cœur de la cryptographie actuelle [lire page 34]. La théorie est claire : pour bon nombre d’opérations, un ordinateur quantique est exponentiellement plus efficace qu’un ordinateur classique au fur et à mesure que la quantité d’informations à traiter augmente. De quoi venir à bout en quelques minutes d’un problème qu’un ordinateur traditionnel mettrait des années à résoudre, d’effectuer en quelques heures un calcul qui prendrait des… milliards d’années.

Gardons la tête froide. Les machines actuelles sont bien loin de ces prodiges. Avec leur quinzaine de qubits au mieux, elles ne peuvent faire tourner que quelques algorithmes peu utiles et sont très limitées en termes de puissance. « Pour le moment, pointe Eleni Diamanti, personne n’a encore démontré la suprématie quantique », cette supériorité exponentielle du quantique sur le classique pour un algorithme donné. Dit autrement, personne n’a encore fabriqué une machine avec assez de qubits pour qu’un supercalculateur classique ne puisse plus la simuler. Le seuil de 49 ou 50 qubits est souvent avancé. Qui le franchira le premier ? Google semble favori, lui dont la feuille de route prévoyait une machine de 49 qubits avant la fin 2017. « Notre but à court terme est de démontrer la suprématie quantique. Nous y travaillons dur et espérons y arriver au cours de l’année prochaine », a déclaré par écrit à « L’Usine Nouvelle » un porte-parole du groupe. Mais IBM tient aussi la corde et Microsoft, qui n’a encore construit aucune machine, pourrait faire sensation à en croire Bernard Ourghanlian : « Nous voulons sortir une machine avec des centaines de qubits. Nous nous en rapprochons, c’est vraiment pour bientôt. » Eleni Diamanti y croit : « Les efforts de ces grands industriels peuvent tout à fait déboucher sur une machine de 50 qubits d’ici à quelques mois. »

La décohérence, obstacle majeur

Tout l’enjeu est donc d’augmenter le nombre de qubits. Un passage à l’échelle qui n’a rien de gagné, car il faut que les qubits aient les propriétés quantiques désirées, restent intriqués et soient en interaction pour former des portes logiques. Or la décohérence – la perte des propriétés quantiques liée à des perturbations qui détruit la puissance de calcul [lire l’encadré page précédente] – augmente avec le nombre de qubits, générant des erreurs qu’il faut corriger, notamment en dédiant des qubits à cette tâche. Il peut ainsi y avoir besoin, suivant les systèmes physiques utilisés pour réaliser les qubits, jusqu’à 10 000 qubits matériels pour disposer de 1 qubit logique utilisable pour les calculs ! Si la décohérence augmente trop vite avec le nombre de qubits, corriger les erreurs avec des qubits supplémentaires peut se révéler impossible. Google se pose en favori parce qu’il a annoncé cet été avoir trouvé un moyen de limiter l’augmentation de la décohérence jusqu’à 60 qubits. Le californien, comme IBM, travaille sur des qubits à base de supraconducteurs. Microsoft, lui, a fait au début des années 2000 le pari « très osé », selon Bernard Ourghanlian, de travailler sur une quasi-particule – une particule fictive –, appelée fermion de Majorana, dont l’existence n’a été prouvée qu’en 2012… L’intérêt de cette approche, dite topologique ? « Les qubits formés avec ces fermions sont très résistants à la décohérence. Il ne faut que 10 qubits matériels pour assurer 1 qubit logique, contre 1 000?à 10 000 pour les autres technologies », explique Bernard Ourghanlian.

Les paris restent ouverts pour savoir qui démontrera la ­suprématie quantique et quelles technologies permettront le passage à l’échelle. L’échéance, elle, semble bien être une question de mois pour avoir des machines ouvrant une nouvelle ère dans le supercalcul. Sans attendre l’ordinateur quantique universel – capable de traiter tout type de problème comme un processeur traditionnel – espéré à l’horizon 2025, l’avenir proche devrait voir des machines quantiques capables de calculs spécifiques accessibles dans le cloud et des accélérateurs quantiques ajoutés aux processeurs des supercalculateurs. En témoigne la stratégie d’Atos de développer et de diffuser un langage de programmation quantique pour les informaticiens [lire l’entretien page 32]. Cette fois, c’est la bonne. 

Quatre géants et un pionnier pour fabriquer le processeur de demain

  • Google : Pour la suprématie quantique

De ses échanges initiaux avec D-Wave, Google a gardé une démarche hybride qui mêle l’approche souple et dédiée à une gamme de problèmes de D-Wave et la correction d’erreurs à la IBM. Le géant de Mountain View travaillerait sur un prototype de 20 qubits et espère « démontrer la suprématie quantique dans le courant de 2018 » avec une machine de 49 qubits.

  • IBM : Pas à pas vers l’universel

Lancée en 2016, l’IBM Q Experience se traduit aujourd’hui par un ordinateur de 16 qubits accessible dans le cloud. Utilisant des qubits supraconducteurs implantés sur du silicium et s’attachant à maîtriser les erreurs liées à la décohérence, IBM dispose aussi d’une machine de 17 qubits sur laquelle il travaille pour développer un ordinateur universel d’ici à 2026.

  • Intel : Le silicium roi

Intel veut mettre le silicium au cœur de l’ordinateur quantique. Avec l’avantage de pouvoir utiliser le savoir-faire et les process traditionnels. L’américain travaille sur un qubit matérialisé par un électron piégé dans un transistor modifié. Mais Intel suit aussi la piste supraconductrice, comme en témoigne la puce de 17 qubits supraconducteurs présentée mi-octobre.

  • Microsoft : Le pari topologique

La firme de Redmond suit une voie originale en pariant pour ses qubits sur des tresses de quasi-particules, appelées fermions de Majorana, générées dans des gaz d’électrons 2D. L’intérêt de cette approche dite topologique est d’avoir une protection intrinsèque contre la décohérence et donc de limiter la redondance en qubits utilisée pour corriger les erreurs. Une première machine est attendue « pour bientôt ».

  • D-Wave : Le pionnier contesté

Ce spécialiste américain né en 1999 est le seul à avoir déjà vendu des machines (à la Nasa, à Lockheed Martin…) et a présenté en 2017 son nouveau modèle à 2 000 qubits supraconducteurs. Mais ces qubits connaissent beaucoup d’erreurs et le caractère quantique des calculs est contesté. Une chose est sûre, la machine de D-Wave est cantonnée à des calculs spécifiques (mais très utiles) d’optimisation.

La mécanique des quanta

Qubit : En informatique classique, le bit est le plus petit élément d’information. Il vaut soit 0, soit 1 et se matérialise par un transistor soit passant, soit bloquant. Pour l’ordinateur quantique, on parle de qubit, ou bit quantique. Un qubit correspond à un objet, comme un ion piégé ou une jonction à supraconducteur, qui obéit à la physique quantique et possède deux états caractéristiques, que l’on peut labelliser 0 et 1.

Superposition Le comportement quantique du qubit fait qu’au lieu d’être soit dans l’état 0, soit dans l’état 1 il est dans un état qui est une superposition – un mélange – des états 0 et 1. En appliquant une opération logique au qubit, on l’applique donc simultanément à l’état 0 et à l’état 1. Avec un bit classique, il faudrait l’appliquer successivement à 0 puis à 1 pour traiter les deux valeurs possibles.

Puissance L’avantage de cette simultanéité dans le traitement est d’autant plus grand que la quantité d’informations est élevée. Un système de 10 qubits est dans un état superposition des 210 =?1 024 valeurs possibles d’un système de 10 bits classiques. Manipuler 10 qubits revient à manipuler en une seule fois 1 024 valeurs. Avec 30 qubits, c’est plus de 1 milliard d’opérations simultanées… « C’est ce parallélisme massif qui est au cœur de la puissance de l’ordinateur quantique», pointe Eleni Diamanti, chercheuse CNRS au laboratoire d’informatique de Paris 6.

Intrication Reste à exploiter cette puissance. La lecture d’un qubit détruit sa superposition quantique en le plongeant dans un seul état, 0 ou 1, ce qui signifie la perte de toute l’efficacité quantique. Les algorithmes doivent donc ruser pour profiter du parallélisme et extraire les résultats. Ils utilisent notamment l’intrication : un système de qubits en interaction forme un tout, qui est dans un état superposition des différentes combinaisons des états individuels des qubits. Conséquence : toucher à un qubit modifie instantanément les autres. De quoi projeter des qubits dans les états correspondant au résultat d’un calcul en en modifiant d’autres.

Décohérence C’est l’ennemi absolu ! La décohérence signifie la perte de la superposition quantique, donc de la puissance de calcul. Généralement liée aux perturbations de l’environnement, cette décohérence menace les qubits et leur intrication. Elle se traduit par des erreurs qu’il est nécessaire de corriger en utilisant l’intrication et la redondance. Suivant les types de qubits, il peut ainsi falloir jusqu’à 10 000 qubits physiques pour former 1 qubit logique fiable. 

Réagir à cet article

Créez votre compte L’Usine Connect

Fermer
L'Usine Connect

Votre entreprise dispose d’un contrat
L’Usine Connect qui vous permet d’accéder librement à tous les contenus de L’Usine Nouvelle depuis ce poste et depuis l’extérieur.

Pour activer votre abonnement vous devez créer un compte

Créer votre Compte
Suivez-nous Suivre Usine Nouvelle sur Facebook Suivre Usine Nouvelle sur Twitter RSS Usine Nouvelle