L’informatique quantique fait partie de ces technologies qui semblent bien parties pour révolutionner notre quotidien. Mais elle souffre encore de problèmes majeurs qui freinent encore le développement d’applications concrètes, à commencer par le nombre d’erreurs qui peut se glisser dans les qbits. Mais trois avancées remarquables publiées le même jour pourraient enfin débarrasser les scientifiques de cette contrainte.
Très sommairement, la puissance de cette technologie vient majoritairement du fait qu’elle permet de stocker des informations complexes sous forme de différences subtiles dans l’état de la matière. Le problème, c’est que pour assurer l’intégrité de ces informations, il faut être capable de protéger parfaitement les unités qui servent à les stocker – en l’occurrence, les bits quantiques, ou qbits.
C’est un processus que l’on maîtrise déjà très bien en informatique traditionnelle. Il existe de nombreux processus et même de la mémoire vive (ECC) spécialement dédiée à la prévention, et même à la correction de ces erreurs. Mais les bits quantiques (qbits) sont bien plus complexes que ceux dont se servent les équipements actuels. Il est donc exponentiellement plus compliqué de les préserver parfaitement.
Ce problème de stabilité freine encore le développement de l’informatique quantique. Naturellement, c’est donc l’un des aspects de cette discipline sur lequel les chercheurs travaillent d’arrache-pied. Trois d’entre elles viennent d’ailleurs de publier simultanément des résultats assez impressionnants en la matière.
Jusqu’à 99,95% de précision pour un qbit unique
Les premiers viennent de l’équipe de Seigo Tarucha, un chercheur japonais dont l’équipe est parvenue à atteindre 99,84% de précision pour 1 qbit, et 99,51 pour un système composé de 2 qbits. Aux Pays-Bas, l’équipe de Lieven Vanderspyen a obtenu des résultats comparables, avec 99,87% de précision pour 1 qbit et 99,65% pour deux qbits. Mais les travaux les plus concluants sont certainement ceux de l’équipe d’Andrea Morello, un chercheur de l’Université de Galles du Sud. Lui et ses collègues ont atteint 99,95% de précision pour 1qbit.
Les tests sur 1 qbit permettent d’évaluer la stabilité individuelle d’une unité de mémoire, absolument fondamentale pour le fonctionnement de l’engin. Les tests à 2 qbits, eux, permettent de tester la stabilité des fonctions logiques qui servent de bases aux ordinateurs complexes. Dans tous les cas, ce sont des progrès significatifs, car on rentre désormais dans un domaine où ces erreurs deviennent assez rares pour qu’on puisse tenter de les corriger individuellement – une sécurité absolument indispensable pour l’utiliser dans des opérations concrètes.
“Lorsque les erreurs deviennent si rares, il devient possible de les détecter et de les corriger lorsqu’elles surviennent”, précise Andrea Morello. “Cela montre qu’il est possible de construire des ordinateurs quantiques à la puissance suffisante pour réaliser des opérations significatives”, affirme-t-il. “Cela ouvre la voie à des ensembles de qbits capables de produire des calculs robustes et concrètement utiles”, renchérit son collègue Serwan Asaad.
Évidemment, répliquer ces performances sur des systèmes à l’échelle d’un ordinateur quantique entier sera loin d’être aisé. Mais les chercheurs disposent désormais de trois études solides sur lesquelles se baser pour y parvenir. Nous pourrions donc bientôt voir apparaître les premiers prototypes d’ordinateurs quantiques (quasiment) exempts d’erreurs, avec toutes les conséquences que cela implique pour notre civilisation.
Le texte de l’étude est disponible ici.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
C’est toujours intéressant des articles avec ce niveau de précision sur un thème qui n’est absolument pas maîtrisé par la majorité des lecteurs. Il faut sans cesse expliquer l’intérêt des ordinateurs quantiques car c’est encore un sujet trop flou.
C’est le travail des exégètes, et il n’en manque pas !