Ces dernières années, de gros progrès dans plusieurs disciplines ont conduit à des avancées remarquables en informatique quantique. Mais pour l’instant, cette technologie n’est pas encore assez mature pour se démocratiser. Mais cela pourrait changer grâce aux travaux d’une équipe américaine qui vient de présenter une avancée remarquable sur la stabilité des qbits.
Ces derniers sont les cousins quantiques des bits qu’on trouve en informatique traditionnelle. Dans un PC classique, ces sous-unités logiques fondamentales existent dans un état bien défini. Elles prennent simplement la forme d’une charge électrique stockée grâce à un transistor qui peut passer d’un état à l’autre (0 ou 1).
Mais dans un ordinateur quantique, la situation est plus ambiguë. Pour stocker l’information, les qbits font appel aux propriétés quantiques de la matière ; leur fonctionnement repose sur les notions d’intrication et surtout de superposition quantique.
Très vulgairement, le phénomène de superposition permet à un système d’exister simultanément dans plusieurs états. L’intrication, de son côté, est un état quantique où deux particules sont reliées par un lien inextricable et indépendant de leur distance. Techniquement, si l’une des deux particules subit la moindre modification, l’autre moitié du couple subira exactement les mêmes effets, même s’il est situé à l’autre bout de l’univers. Pour simplifier très grossièrement, la subtilité d’un qbit, c’est qu’il peut exister à la fois en tant que 0 et 1, contrairement au bit classique qui doit faire un choix tranché entre les deux.
Un problème de cohérence
Pour réaliser des opérations, un ordinateur quantique doit impérativement maintenir ces qbits dans un état d’intrication. Cela permet de calculer ce que les spécialistes appellent des probabilités de superposition. Malheureusement, il est extrêmement difficile de maintenir cette situation idéale, souvent appelée cohérence (voir notre article).
En effet, les qbit peuvent aussi interagir avec d’autres systèmes quantiques à proximité. Chacune de ces interactions peut perturber ce ballet infiniment délicat ; lorsqu’elles surviennent, l’intrication quantique si importante dans ce cas de figure a tendance à s’écrouler. On parle alors de décohérence.
Les chercheurs explorent différentes approches qui permettent de corriger ces petites erreurs en temps réel. Un peu comme cela existe déjà dans certains types de mémoire vive dite ECC. Le problème, c’est que ces systèmes de correction peuvent aussi introduire des erreurs supplémentaires. Cela a pour effet de réduire la durée de vie réelle des qbits.
Certes, il y a bien eu quelques résultats encourageants à ce niveau. On peut citer un trio d’expériences particulièrement probantes publiées en janvier 2022 (voir notre article ci-dessous). Mais pour le moment, la plupart des expériences de correction accélèrent encore la décohérence, contrairement à ce que suggèrent les prédictions théoriques.
Un qbit stable pendant une durée record
Tout l’enjeu, c’est donc de trouver un système de correction des erreurs qui soit capable de préserver la cohérence des qbits. Et c’est là qu’intervient Michael Devoret, professeur de physique appliquée à Yale. Avec son équipe, il a réussi à faire survivre un qbit dans un système de correction pendant 1,8 milliseconde.
Ce chiffre pourrait sembler ridicule. À titre de comparaison, c’est presque 100 fois plus court qu’un clignement d’œil moyen. Mais il s’agit en fait d’un petit exploit. Jusqu’à présent, les chercheurs n’avaient jamais réussi à garder un qbit cohérent pendant plus d’une milliseconde dans ces conditions ! A cette échelle, ce fameux qbit affichait donc un âge canonique.
En résumé, Devoret et son équipe ont doublé la durée de vie d’un qbit dans un système avec correction d’erreur. « Pour la première fois, nous avons montré que le fait de rendre le système plus redondant et de détecter/corriger les erreurs pouvait augmenter la résilience de l’information quantique », explique-t-il.
La voie royale vers de nouveaux progrès
Si ces travaux sont si importants, c’est parce que la correction des erreurs est l’un des derniers gros obstacles pratiques aux progrès de l’informatique quantique. Cette avancée majeure pourrait donc déboucher sur de nouvelles avancées très concrètes. « Ce n’est pas seulement une simple preuve de concept. Notre expérience montre que la correction d’erreurs quantiques est un vrai outil viable en pratique », insiste-t-il.
Il sera donc très intéressant d’observer ce que d’autres chercheurs vont construire sur la base de ces travaux à l’avenir. Ils vont très probablement participer à l’apparition de nouveaux systèmes de plus en plus performants et stables. Avec tout ce que cela implique pour la communauté scientifique. « Notre expérience valide une théorie clé de l’informatique quantique, et c’est très excitant pour le futur de la discipline », se réjouit Volodymyr Sivak, auteur principal de l’étude.
Mais ce succès ne signifie pas que les ordinateurs quantiques vont se démocratiser du jour au lendemain, loin de là. Car dans ces disciplines de pointe, les révolutions techniques sont rarissimes. C’est toujours la politique des petits pas qui prime. Par exemple, l’équipe s’est appuyée sur un tas de travaux très exploratoires réalisés depuis des décennies. Le code de correction d’erreurs en lui-même, par exemple, a été imaginé… en 2001.
« Ça remet en perspective les délais qui existent entre les propositions théoriques et les applications pratiques dans notre discipline », observe Devoret avec pragmatisme. Il faudra donc patienter avant que cette technologie n’arrive à maturité. Rendez-vous dans quelques années (ou probablement décennies) pour voir si cette étude marquante aura débouché sur des avancées concrètes.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
Merci pour cet article très lisible malgré la technicité du sujet !