Tower of device made of copper discs connected by glowing wires and vacuum tubes. Illustration of the concept of quantum computer and computing

Computation quantique: Qu’est-ce que la correction d’erreur quantique (QEC) et pourquoi est-elle si importante?

Par Anissa Chauvin

Calcul quantique devrait laisser l’informatique classique dans la poussière lorsqu’il s’agit de résoudre certains des problèmes les plus riches du monde. Cependant, les meilleures machines quantiques ont une faiblesse majeure – elles sont incroyablement sujettes aux erreurs.

C’est pourquoi le domaine se précipite pour développer et mettre en œuvre des régimes de correction des erreurs quantiques (QEC) pour atténuer le manque de fiabilité inhérent à la technologie. Ces approches impliquent la création de redondances dans la façon dont les informations sont codées dans le qubits des ordinateurs quantiques, de sorte que si quelques erreurs se glissent dans les calculs, l’ensemble du calcul n’est pas déraillé. Sans aucune correction d’erreur supplémentaire, le taux d’erreur dans les qubits est d’environ 1 sur 1 000 contre 1 million sur 1 million de bits informatiques classiques.

Les propriétés inhabituelles de mécanique quantique Rendez cela considérablement plus compliqué que la correction d’erreurs dans les systèmes classiques. La mise en œuvre de ces techniques à une échelle pratique nécessitera également des ordinateurs quantiques beaucoup plus grands que les principaux appareils d’aujourd’hui.

Mais le domaine a connu des progrès significatifs ces dernières années, culminant dans un résultat historique de l’équipe informatique quantique de Google en décembre dernier. La société a dévoilé un nouveau Processeur quantique appelé Willow Cela a fourni la première preuve concluante que le QEC peut évoluer jusqu’à la taille des grandes tailles de périphérique nécessaire pour résoudre des problèmes pratiques.

« C’est un résultat historique en ce qu’il montre pour la première fois que QEC fonctionne réellement »,  » Joschka Roffeun boursier de l’innovation à l’Université d’Édimbourg et auteur d’un Étude 2019 sur la correction des erreurs quantiquesa dit en direct de la science. « Il y a encore un long chemin à parcourir, mais c’est en quelque sorte la première étape, une preuve de concept. »

Pourquoi avons-nous besoin d’une correction d’erreur quantique?

Les ordinateurs quantiques peuvent exploiter des phénomènes quantiques exotiques tels que enchevêtrement et superposition pour coder efficacement les données et traiter les calculs en parallèle, plutôt que dans une séquence comme les ordinateurs classiques. En tant que tel, la puissance de traitement augmente de façon exponentielle, plus vous ajoutez de qubits à un système pour certains types de problèmes. Mais ces états quantiques sont intrinsèquement fragiles, et même la moindre interaction avec leur environnement peut les faire s’effondrer.

C’est pourquoi les ordinateurs quantiques se mettent à grand nombre pour séparer leurs qubits des perturbations externes. Cela se fait normalement en les gardant à des températures ultra-bas ou dans un vide – ou en les codant en photons qui interagissent faiblement avec l’environnement.

Mais même alors, les erreurs peuvent se glisser et se produire à des taux beaucoup plus élevés que dans les appareils classiques. Les opérations logiques dans le processeur quantique de pointe de Google échouent à un taux d’environ 1 sur 100, explique Roffe.

« Nous devons trouver un moyen de combler ce golfe afin que nous puissions réellement utiliser des ordinateurs quantiques pour exécuter certaines des applications vraiment excitantes que nous avons proposées pour eux », a-t-il déclaré.

Les schémas QEC s’appuient sur les idées développées dans les années 40 pour les premiers ordinateurs, qui étaient beaucoup plus peu fiables que les appareils d’aujourd’hui. Les puces modernes n’ont plus besoin de correction d’erreurs, mais ces schémas sont encore largement utilisés dans les systèmes de communication numérique plus sensibles au bruit.

Ils travaillent en construisant la redondance dans les informations transmises. Le moyen le plus simple de l’implémenter est d’envoyer simplement le même message plusieurs fois, a déclaré Roffe, quelque chose de connu sous le nom de code de répétition. Même si certaines copies présentent des erreurs, le récepteur peut déterminer ce que le message était en examinant les informations qui sont le plus souvent répétées.

Mais cette approche ne se traduit pas soigneusement dans le monde quantique, explique Roffe. Les états quantiques utilisés pour coder des informations dans un effondrement de l’ordinateur quantique en cas d’interaction avec l’environnement externe, y compris lorsqu’une tentative est faite pour les mesurer. Cela signifie qu’il est impossible de créer une copie d’un état quantique, quelque chose de « connu sous le nom de »Théorème sans clocher». En conséquence, les chercheurs ont dû proposer des schémas plus élaborés à construire en redondance.

Qu’est-ce qu’un qubit logique et pourquoi est-il si important?

L’unité fondamentale de l’information dans un ordinateur quantique est un qubit, qui peut être codé dans une variété de systèmes physiques, y compris des circuits supraconducteurs, des ions piégés, des atomes neutres et photons (particules de lumière). Ces soi-disant «qubits physiques» sont intrinsèquement sujettes aux erreurs, mais il est possible de diffuser une unité d’informations quantiques sur plusieurs d’entre elles en utilisant le phénomène quantique de l’enchevêtrement.

Cela fait référence à une situation où les états quantiques de deux ou plusieurs particules sont intrinsèquement liés les uns aux autres. En empêchant plusieurs qubits physiques, il est possible d’encoder un seul état quantique partagé sur tous, dit Roffe, quelque chose de connu comme un « qubit logique ». L’étendue des informations quantiques de cette manière crée une redondance, de sorte que même si quelques qubits physiques éprouvent des erreurs, les informations globales ne sont pas perdues.

Cependant, le processus de détection et de correction des erreurs est compliqué par le fait que vous ne pouvez pas mesurer directement les états des qubits physiques sans les faire s’effondrer. « Vous devez donc être beaucoup plus intelligent sur ce que vous mesurez réellement, » Dominic Williamsonun membre du personnel de recherche à IBM, a déclaré à Live Science. « Vous pouvez le considérer comme mesurer la relation entre (les qubits) au lieu de les mesurer individuellement. »

Cela se fait à l’aide d’une combinaison de « qubits de données » qui codent les informations quantiques, et des « qubits ancilla » qui sont responsables de la détection des erreurs dans ces qubits, explique Williamson. Chaque qubit Ancilla interagit avec un groupe de qubits de données pour vérifier si la somme de leurs valeurs est impair ou même sans mesurer directement leurs états individuels.

Si une erreur s’est produite et que la valeur de l’un des qubits de données a changé, le résultat de ce test se retournera, indiquant qu’une erreur s’est produite dans ce groupe. Les algorithmes classiques sont utilisés pour analyser les mesures de plusieurs qubits ancilla pour identifier l’emplacement du défaut. Une fois que cela est connu, une opération peut être effectuée sur le qubit logique pour corriger l’erreur.

Quelles sont les principales approches de correction des erreurs?

Bien que tous les schémas QEC partagent ce processus, les détails peuvent varier considérablement. La famille de techniques la plus largement étudiée est connue sous le nom de «codes de surface», qui diffuse un qubit logique sur une grille 2D de qubits de données entrecoupées de qubits ancilla. Les codes de surface sont bien adaptés aux ordinateurs quantiques basés sur les circuits supraconducteurs développés par Google et IBM, dont les qubits physiques sont disposés exactement dans ce type de grille.

Mais chaque qubit Ancilla ne peut qu’interagir avec les qubits de données directement voisins, ce qui est facile à concevoir mais relativement inefficace, a déclaré Williamson. Il est prévu qu’à l’aide de cette approche, chaque qubit logique nécessitera environ 1 000 physiques, ajoute-t-il.

Cela a conduit à un intérêt croissant pour une famille de régimes QEC connus sous le nom de codes de vérification de parité basse densité (LDPC), a déclaré Williamson. Ceux-ci reposent sur des interactions à longue portée entre les qubits, ce qui pourrait réduire considérablement le nombre total requis. Le seul problème est que la connexion physique des qubits sur des distances plus grandes est difficile, bien qu’elle soit plus simple pour des technologies telles que les atomes neutres et les ions piégés, dans lesquels les qubits physiques peuvent être déplacés physiquement.

Une condition préalable pour faire fonctionner l’un de ces schémas, dit Roffe, réduit le taux d’erreur des qubits individuels en dessous d’un seuil crucial. Si le matériel sous-jacent est trop peu fiable, les erreurs s’accumuleront plus rapidement que le schéma de correction d’erreur peut les résoudre, peu importe le nombre de qubits que vous ajoutez au système. En revanche, si le taux d’erreur est suffisamment faible, l’ajout de plus de qubits au système peut entraîner une amélioration exponentielle de la suppression des erreurs.

Le récent journal Google a fourni la première preuve convaincante que cela est à portée de main. Dans une série d’expériences, les chercheurs ont utilisé leur puce de saule de 105 qubit pour exécuter un code de surface sur des tableaux de qubits de plus en plus importants. Ils ont montré que chaque fois qu’ils augmentaient le nombre de qubits, le taux d’erreur avait fait deux deux deux fois.

« Nous voulons pouvoir supprimer le taux d’erreur d’un facteur d’un billion ou quelque chose, donc il reste encore un long chemin à parcourir », a déclaré Roffe à Live Science. « Mais j’espère que cela ouvrira la voie à des codes de surface plus grands qui suppriment réellement les taux d’erreur au point où nous pouvons faire quelque chose d’utile. »

Anissa Chauvin