Une nouvelle référence informatique quantique a révélé les forces et les faiblesses de plusieurs unités de traitement quantique (Qpus).
Les tests d’analyse comparative, dirigés par une équipe du Jülich Research Center en Allemagne, ont comparé 19 QPU différents de cinq fournisseurs – y compris IBM, Quannuum, IonQ, Rigetti et IQM – pour déterminer quels puces étaient plus stables et fiables pour l’informatique haute performance (HPC).
Ces systèmes quantiques ont été testés à la fois à différentes « largeurs » (le nombre total de qubits) ainsi que différentes «profondeurs» pour les portes de 2 qubit. Les portes sont des opérations qui agissent sur deux enchevêtré Qubits simultanément, et la profondeur mesure la longueur d’un circuit – en d’autres termes, sa complexité et son temps d’exécution.
Les QPU d’IBM ont montré la plus grande résistance en termes de profondeur, tandis que le quantinuum a fonctionné le mieux dans la catégorie de largeur (où un plus grand nombre de qubits a été testé). Les QPU d’IBM ont également montré une amélioration significative des performances entre les itérations, en particulier entre la précédente Eagle et générations de puces de héron plus récentes.
Ces résultats, décrits dans une étude téléchargée le 10 février sur la préimpression arxiv La base de données, suggère que les améliorations des performances peuvent être attribuées non seulement à un matériel meilleur et plus efficace, mais aussi des améliorations du firmware et l’intégration des portes fractionnées – les portes personnalisées disponibles sur Heron peuvent réduire la complexité d’un circuit.
Cependant, la dernière version de la puce Heron, surnommée IBM Marrakesh, n’a pas démontré des améliorations attendues des performances, malgré la moitié des erreurs par porte en couches (EPLG) par rapport au précédent QPU du géant informatique, IBM Fès.
Au-delà de l’informatique classique
Les petites entreprises ont également réalisé des gains relativement importants. Surtout, une puce Quannuum a passé la référence à une largeur de 56 qubits. Ceci est significatif car il représente la capacité d’un système informatique quantique à dépasser les ordinateurs classiques existants dans des contextes spécifiques.
« Dans le cas de Quannuum H2-1, les expériences de 50 et 56 qubits sont déjà supérieures aux capacités de simulation exacte dans les systèmes HPC et les résultats sont toujours significatifs », ont écrit les chercheurs dans leur étude préalable.
Plus précisément, la puce Quannuum H2-1 a produit des résultats à 56 qubits, exécutant trois couches de l’algorithme d’optimisation quantique de rampe linéaire (LR-QAOA) – un algorithme de benchmarking – impliquant 4 620 gates à deux qubit.
« À notre connaissance, il s’agit de la plus grande mise en œuvre de QAOA pour résoudre un problème d’optimisation combinatoire FC sur le matériel quantique réel qui est certifié pour donner un meilleur résultat sur une supposition aléatoire », ont déclaré les scientifiques dans l’étude.
Les problèmes de Fez d’IBM ont géré la plus haute profondeur des systèmes testés. Dans un test qui comprenait un problème de 100 qubit utilisant jusqu’à 10 000 couches de LR-QAOA (près d’un million de portes de deux qubit), Fez a conservé des informations cohérentes jusqu’à près de la marque de 300 couches. Le QPU le moins performant dans les tests était l’ANKAA-2 de Rigetti.
L’équipe a développé la référence pour mesurer le potentiel d’un QPU à effectuer des applications pratiques. Dans cet esprit, ils ont cherché à concevoir un test avec un ensemble de règles clair et cohérent. Ce test devait être facile à exécuter, la plate-forme agnostique (afin qu’il puisse fonctionner la plus large gamme de systèmes quantiques possibles) et fournir des mesures significatives associées aux performances.
Leur référence est construite autour d’un test appelé le problème Maxcut. Il présente un graphique avec plusieurs sommets (nœuds) et les bords (connexions) demande ensuite au système de diviser les nœuds en deux ensembles afin que le nombre de bords entre les deux sous-ensembles soit maximal.
Ceci est utile comme référence car il est très difficile de calcul, et la difficulté peut être étendue en augmentant la taille du graphique, ont déclaré les scientifiques dans le document.
Un système a été considéré comme ayant échoué au test lorsque les résultats ont atteint un état entièrement mixte – lorsqu’ils étaient indiscernables de ceux d’un échantillonneur aléatoire.
Étant donné que la référence repose sur un protocole de test relativement simple et évolutif et peut produire des résultats significatifs avec un petit ensemble d’échantillons, il est raisonnablement peu coûteux à gérer, ont ajouté les informaticiens.
La nouvelle référence n’est pas sans défauts. Les performances dépendent, par exemple, sur les paramètres de planification fixe, ce qui signifie que les paramètres sont définis au préalable et non ajustés dynamiquement pendant le calcul, ce qui signifie qu’ils ne peuvent pas être optimisés. Les scientifiques ont suggéré que parallèlement à leur propre test, « différents repères candidats pour capturer des aspects essentiels de la performance devraient être proposés, et le meilleur d’entre eux avec l’ensemble le plus explicite de règles et d’utilité restera ».