IBM présente un ordinateur quantique opérationnel de 50 qubits
IBM fait un grand pas vers l'ordinateur quantique en présentant une machine de 50 qubits – bits quantiques. L'américain offrira en outre d'ici à la fin de l'année un accès dans le cloud à une machine de 20 qubits.
La course aux qubits s'accélère. Ces fameux bits quantiques à la puissance de calcul quasi magique qui prétendent ridiculiser les bits classiques des ordinateurs traditionnels se multiplient comme des petits pains. L'annonce d'IBM, vendredi 10 novembre, marque une belle avancée vers le mythique ordinateur quantique.
Le géant américain a en réalité présenté une double annonce. D'une part, IBM donnera accès au public via le cloud à une machine de 20 qubits d'ici à la fin de l'année dans le cadre de son IBM Q Experience. Lancé en mai 2016, ce programme a démarré avec une machine de 5 qubits avant de passer à une puce de 17 qubits en mai dernier. Selon IBM, plus de 60000 utilisateurs ont fait tourner sur ces puces plus de 1,7 million d'expériences de manipulation de qubits.
Toujours plus de qubits...
Multiplier les qubits est essentiel : une poignée de qubits ne permet que de réaliser des opérations élémentaires. Pour faire tourner de véritables algorithmes, et encore plus pour réaliser un ordinateur quantique universel, il faut plus de qubits. Une course dans laquelle sont engagés IBM, Google et Intel, sans parler de start-up et d'un outsider de taille, Microsoft, qui mise sur une technologie plutôt exotique qui reste à concrétiser.
C'est dans ce contexte que la deuxième annonce d'IBM a de quoi susciter l'intérêt : Big Blue a aussi indiqué dans son communiqué avoir mis au point un "prototype opérationnel de processeur quantique de 50 qubits". Un chiffre très symbolique puisqu'il est associé à la tant attendue "suprématie quantique", soit la démonstration, sur un algorithme donnée, de la supériorité d'un processeur quantique sur une puce classique. Google entend ainsi démontrer la suprématie quantique au plus tard en 2018 avec une machine de 49 qubits.
... mais pas encore la suprématie quantique
Dario Gil, en charge de la recherche en intelligence artificielle et du programme IBM Q, s'est bien sûr félicité des progrès réalisés par ses équipes : "Il y a quelques années encore, exploiter plusieurs systèmes quantiques ensembles et les mettre en ligne n'était pas possible. Aujourd'hui, nous pouvons étendre les processeurs IBM jusqu'à 50 qubits grâce à de grands exploits en matière de science et d'ingénierie."
Le communiqué d'IBM se garde pourtant de tout triomphalisme et Marc Ganzhorn, chercheur du centre de recherches zurichois du groupe interrogé par L'Usine Nouvelle, douche tout enthousiasme prématuré : "Le processeur de 50 qubits n'est pas moins performant que celui de 20 qubits", résume-t-il, en choisissant soigneusement ses mots…
90 microsecondes d'effet quantique
Un processeur de 50 qubits ne devrait-il pourtant pas être beaucoup, beaucoup plus performant qu'un processeur de 20 qubits ? "En principe oui, répond Marc Ganzhorn, mais il faut pour celà que les qubits gardent les mêmes performances, ce qui n'est pas évident." Eh oui ! Dans le quantique, il y a qubit et qubit ! En particulier, un qubit – soit, matériellement, une jonction supraconducteur-isolant-supraconducteur chez IBM et Google – n'est un vrai qubit que tant qu'il garde ses propriétés quantiques. Soit un court laps de temps.
Le comportement quantique d'un qubit qui est à la base de sa puissance de calcul est en effet très précaire, facilement détruit par la moindre perturbation issue de son environnement – un phénomène appelé décohérence. IBM se félicite ainsi d'avoir, entre le processeur de 16 qubits et celui de 20 qubits, doublé le temps de cohérence de ses qubits, à 90 microsecondes. Un niveau présenté comme record.
Le passage à l'échelle (presque) démontré
Le problème est qu'en multipliant les qubits, on multiplie aussi les possibilités de décohérence. "Chaque qubit supplémentaire est une porte grande ouverte sur des perturbations qui réduisent le temps de cohérence", explique Marc Ganzhorn. De quoi comprendre que réaliser un système de 50 qubits "pas moins performant" qu'un système de 20 qubits est déjà une belle avancée, une preuve qu'il est possible d'augmenter significativement le nombre de qubits sans détruire leur caractère quantique.
Pour le chercheur, "ce prototype encore en cours de test et d'optimisation est un bon point de départ pour des améliorations". IBM compte-t-il sur ces 50 qubits pour démontrer ultérieurement la suprématie quantique ? "IBM ne se focalise pas sur la suprématie quantique, répond Marc Ganzhorn. Le nombre de qubits nécessaire reste un sujet de débat parmi les chercheurs et, surtout, c'est un indicateur qui ne dit pas grand chose de l'architecture du processeur."
Le volume quantique pour indicateur
Et le chercheur d'insister : "Nous préférons utiliser la notion de volume quantique comme indicateur de performance. Outre le nombre de qubits, le volume quantique prend en compte les temps de cohérence, la fidélité des opérations entre qubits, la connectivité de la puce, la capacité à opérer en parallèle…" Au temps, donc, pour cette spectaculaire suprématie quantique. Un signe que l'ordinateur quantique est passé du buzzword au projet industriel ?
IBM présente un ordinateur quantique opérationnel de 50 qubits
Tous les champs sont obligatoires
0Commentaire
Réagir