Advanced AI Computer Chip Processors Transmitting Data. Electrical Signals Flowing. Millions of Connections And Signals.

Des scientifiques construisent la puce informatique quantique la plus précise jamais créée grâce à une nouvelle architecture informatique basée sur le silicium

Par Anissa Chauvin

Les physiciens de Silicon Quantum Computing ont développé ce qu’ils considèrent comme le plus précis informatique quantique puce jamais conçue, après avoir construit un nouveau type d’architecture.

Les représentants de la startup basée à Sydney affirment que leurs puces de calcul quantique atomique à base de silicium leur confèrent un avantage sur les autres types de unités de traitement quantique (QPU). En effet, les puces sont basées sur une nouvelle architecture, appelée « 14/15 », qui place les atomes de phosphore dans du silicium (nommé ainsi car ils constituent les 14e et 15e éléments du tableau périodique). Ils ont présenté leurs conclusions dans une nouvelle étude publiée le 17 décembre dans la revue Nature.

SQC a atteint des taux de fidélité compris entre 99,5 % et 99,99 % dans un ordinateur quantique doté de neuf qubits nucléaires et de deux qubits atomiques, ce qui a donné lieu à la première démonstration au monde d’informatique quantique atomique à base de silicium sur des clusters distincts.

Les taux de fidélité mesurent l’efficacité des techniques de correction et d’atténuation des erreurs. Les représentants de l’entreprise affirment avoir atteint un taux d’erreur de pointe sur leur architecture sur mesure.

Cela peut ne pas sembler aussi excitant que les ordinateurs quantiques dotés de milliers de qubits, mais l’architecture 14/15 est extrêmement évolutive, ont déclaré les scientifiques dans l’étude. Ils ont ajouté que la démonstration d’une fidélité maximale sur plusieurs clusters sert de preuve de concept pour ce qui, en théorie, pourrait conduire à des QPU tolérants aux pannes avec des millions de qubits fonctionnels.

La sauce secrète est le silicium (avec un côté phosphore)

L’informatique quantique est réalisée selon le même principe que l’informatique binaire : l’énergie est utilisée pour effectuer les calculs. Mais au lieu d’utiliser l’électricité pour actionner des interrupteurs, comme c’est le cas dans les ordinateurs binaires traditionnels, l’informatique quantique implique la création et la manipulation de qubits, l’équivalent quantique des bits d’un ordinateur classique.

Les qubits se présentent sous de nombreuses formes. Les scientifiques de Google et d’IBM construisent des systèmes avec des qubits supraconducteurs qui utilisent des circuits fermés, tandis que certains laboratoires, comme PsiQuantum, ont développé des qubits photoniques, des qubits qui sont des particules de lumière. D’autres, dont IonQ, travaillent avec des ions piégés, capturant des atomes uniques et les maintenant dans un dispositif appelé pince laser.

L’idée générale est d’utiliser la mécanique quantique pour manipuler quelque chose de très petit de manière à effectuer des calculs utiles à partir de ses états potentiels. Les représentants de la SQC affirment que leur processus pour y parvenir est unique, dans la mesure où les QPU sont développés à l’aide de l’architecture 14/15.

Ils créent chaque puce en plaçant des atomes de phosphore dans des tranches de silicium pur.

« Il s’agit du plus petit type de fonctionnalité dans une puce de silicium », Michelle SimmonsPDG de SQC, a déclaré à Live Science dans une interview. « C’est 0,13 nanomètre, et c’est essentiellement le type de longueur de liaison que vous avez dans la direction verticale. C’est deux ordres de grandeur en dessous de ce que TSMC fait habituellement comme norme. C’est une augmentation assez spectaculaire de la précision. »

Augmenter le nombre de qubits de demain

Pour que les scientifiques puissent évoluer dans le domaine de l’informatique quantique, chaque plate-forme doit surmonter ou atténuer divers obstacles.

La correction d’erreurs (QEC) constitue un obstacle universel pour toutes les plateformes d’informatique quantique. Les calculs quantiques se déroulent dans des environnements extrêmement fragiles, avec des qubits sensibles aux ondes électromagnétiques, aux fluctuations de température et à d’autres stimuli. Cela provoque l’« effondrement » de la superposition de nombreux qubits, qui deviennent non mesurables – avec des informations quantiques perdues lors des calculs.

Pour compenser, la plupart des plateformes d’informatique quantique consacrent un certain nombre de qubits à l’atténuation des erreurs. Ils fonctionnent de manière similaire au contrôle ou à la parité des bits dans un réseau classique. Mais à mesure que le nombre de qubits augmente, le nombre de qubits requis pour la QEC augmente également.

« Nous avons de longs temps de cohérence des spins nucléaires et nous avons très peu de ce que nous appelons des « erreurs de retournement de bits ». Ainsi, nos codes de correction d’erreurs eux-mêmes sont beaucoup plus efficaces. Nous n’avons pas à corriger un peu de retournement et de phase pour les erreurs », a déclaré Simmons.

Dans d’autres systèmes quantiques basés sur le silicium, les erreurs de retournement de bits sont plus importantes car les qubits ont tendance à être moins stables lorsqu’ils sont manipulés avec une précision plus grossière. Les puces SQC étant conçues avec une grande précision, elles sont capables d’atténuer certaines occurrences d’erreurs rencontrées sur d’autres plates-formes.

« Nous n’avons vraiment qu’à corriger ces erreurs de phase », a ajouté Williams. « Ainsi, les codes de correction d’erreur sont beaucoup plus petits, donc toute la surcharge que vous effectuez pour la correction d’erreur

est très, très réduit. « 

La course pour battre l’algorithme de Grover

La norme pour tester la fidélité dans un système informatique quantique est une routine appelée algorithme de Grover. Il a été conçu par un informaticien Lov Grover en 1996 pour démontrer si un ordinateur quantique peut démontrer un « avantage » par rapport à un ordinateur classique dans une fonction de recherche spécifique.

Aujourd’hui, il est utilisé comme outil de diagnostic pour déterminer l’efficacité du fonctionnement des systèmes quantiques. Essentiellement, si un laboratoire peut atteindre des taux de fidélité de l’informatique quantique compris entre 99,0 % et plus, il est considéré comme ayant réalisé une informatique quantique avec correction des erreurs et tolérance aux pannes.

En février 2025, la SQC a publié une étude dans la revue Nature dans lequel l’équipe a démontré un taux de fidélité de 98,9 % sur l’algorithme de Grover avec son architecture 14/15.

SQC atteint une précision de pointe avec l’algorithme de Grover – YouTube
SQC atteint une précision de pointe avec l'algorithme de Grover - YouTube

Regarder dessus

À cet égard, SQC a surpassé des entreprises telles qu’IBM et Google ; bien qu’ils aient montré des résultats compétitifs avec des dizaines, voire des centaines de qubits, par rapport aux quatre qubits de SQC.

IBM, Google et d’autres projets importants testent et itèrent encore leurs feuilles de route respectives. Cependant, à mesure qu’ils augmentent le nombre de qubits, ils sont obligés d’adapter leurs techniques d’atténuation des erreurs. La QEC s’est avérée être l’un des goulots d’étranglement les plus difficiles à surmonter.

Mais les scientifiques du SQC affirment que leur plate-forme est tellement « déficiente en erreurs » qu’elle a pu battre le record de Grover sans exécuter de correction d’erreur sur les qubits.

« Si vous regardez le résultat Grover que nous avons produit au début de l’année, nous avons l’album Grover de la plus haute fidélité à 98,87% du maximum théorique et, sur ce point, nous ne faisons aucune correction d’erreur du tout », a déclaré Simmons.

Williams affirme que les « clusters » de qubits présentés dans le nouveau système à 11 qubits peuvent être mis à l’échelle pour représenter des millions de qubits – bien que les goulots d’étranglement de l’infrastructure puissent encore ralentir les progrès.

« Évidemment, à mesure que nous évoluons vers des systèmes plus grands, nous allons procéder à une correction d’erreurs », a déclaré Simmons. « Chaque entreprise doit le faire. Mais le nombre de qubits dont nous aurons besoin sera beaucoup plus petit. Par conséquent, le système physique sera plus petit. Les besoins en énergie seront moindres. »

Anissa Chauvin