Illuminated servers in dark server room.

L’informatique exascale est ici – que signifie cette nouvelle ère de l’informatique et de quoi les supercalculateurs exascale sont-ils capables?

Par Anissa Chauvin

L’informatique exascale est la dernière étape Supercomputeurs de pointe – Systèmes de grande puissance capables de traiter les calculs à des vitesses actuellement impossibles en utilisant une autre méthode.

Les superordinateurs Exascale sont des ordinateurs qui s’exécutent à l’échelle exaflop. Le préfixe « exa » désigne 1 quintillion, qui est 1 x 1018 – ou un avec 18 zéros après. Flop signifie «opérations de points flottants par seconde», un type de calcul utilisé pour comparer les ordinateurs à des fins de comparaison.

Cela signifie qu’un ordinateur exascale peut traiter au moins 1 opérations à virgule flottante à un quintille chaque seconde. En comparaison, la plupart des ordinateurs domestiques fonctionnent dans la gamme Teraflop (généralement environ 5 téraflops), ne traitement que environ 5 billions (5 x 1012) Opérations à virgule flottante par seconde.

« Une exaflop représente un milliard de milliards d’opérations par seconde. Vous pouvez résoudre des problèmes à une échelle beaucoup plus grande, comme une simulation de planète entière, ou vous pouvez le faire à une granularité beaucoup plus élevée », a déclaré Gerald Kleyn, vice-président de HPC & AI Customer Solutions pour HPEa dit en direct de la science.

Plus un ordinateur peut traiter chaque seconde, plus il est puissant, plus il est puissant, ce qui lui permet de résoudre plus de calculs. L’informatique exascale est généralement utilisée pour effectuer des simulations complexes, telles que la prévision météorologique météorologique, la modélisation de nouveaux types de médicaments et les tests virtuels des conceptions de moteurs.

Combien d’ordinateurs exascale y a-t-il et à quoi sont-ils utilisés?

Le premier ordinateur exascale, appelé Frontièrea été lancé par HPE en juin 2022. Il a une vitesse de fonctionnement enregistrée de 1,102 Exaflops. Cette vitesse a depuis été dépassée par le Leader actuel El Capitanqui fonctionne actuellement à 1,742 exaflops. Il y en a actuellement deux au moment de la publication.

Les supercalculateurs exascale ont été utilisés pendant la pandémie Covid-19 pour collecter, traiter et analyser des quantités massives de données. Cela a permis aux scientifiques de comprendre et de modéliser le codage génétique du virus, tandis que les épidémiologistes ont déployé le pouvoir de calcul des machines pour prédire la propagation de la maladie à travers la population. Ces simulations ont été effectuées dans un espace de temps beaucoup plus court que ce qui aurait été possible en utilisant un ordinateur de bureau haute performance.

Il convient également de noter que ordinateurs quantiques ne sont pas les mêmes que les supercalculateurs. Au lieu de représenter des informations à l’aide de bits conventionnels, les ordinateurs quantiques puisent dans les propriétés quantiques de qubits pour résoudre des problèmes trop complexes pour un ordinateur classique.

Pour travailler, l’informatique exascale nécessite des dizaines de milliers d’unités de traitement centrales avancées (CPU) et d’unités de traitement graphique (GPU) à emballer dans un espace. La proximité des CPU et des GPU est essentielle, car cela réduit la latence (le temps nécessaire pour que les données soient transmises entre les composants) dans le système. Bien que la latence soit généralement mesurée en picosecondes, lorsque des milliards de calculs sont traités simultanément, ces minuscules retards peuvent se combiner pour ralentir le système global.

« L’interconnexion (réseau) relie les nœuds de calcul (composés de processeurs et de GPU et de mémoire) », Pekka Manninen, directrice des sciences et de la technologie à CSCa dit en direct de la science. « La pile logicielle permet ensuite de faire de la puissance de calcul conjointe des nœuds en une seule tâche informatique. »

Bien que leurs composants soient entassés aussi étroitement que possible, les ordinateurs exascales sont toujours des dispositifs colossaux. Le supercalculateur de la frontière, par exemple, a 74 armoires, pesant chacune environ 3,5 tonnes, et prend plus de 7 300 pieds carrés (680 mètres carrés) – environ la moitié de la taille d’un terrain de football.

Pourquoi l’informatique exascale est si difficile

Bien sûr, l’emballage de tant de composants serré ensemble peut causer des problèmes. Les ordinateurs nécessitent généralement du refroidissement pour dissiper la chaleur des déchets, et les milliards de calculs effectués par des ordinateurs exascales chaque seconde peuvent les chauffer à des températures potentiellement dommageables.

« Rassembler autant de composants pour fonctionner comme une chose est probablement le chemin le plus difficile, car tout doit fonctionner parfaitement », a déclaré Kleyn. « En tant qu’êtres humains, nous savons tous qu’il est assez difficile de réunir votre famille pour le dîner, sans parler de 36 000 GPU travaillant ensemble en synchronicité. »

Cela signifie que la gestion de la chaleur est vitale pour développer des superordinateurs exascales. Certains utilisent des environnements froids, tels que dans l’Arctique, pour maintenir les températures idéales; tandis que d’autres utilisent un refroidissement à eau liquide, des supports de ventilateurs ou une combinaison des deux pour maintenir les températures basses.

Cependant, les systèmes de contrôle environnemental ajoutent également une autre complication au défi de gestion de l’énergie. L’informatique exascale nécessite des quantités massives d’énergie en raison du nombre de processeurs qui doivent être alimentés.

Bien que l’informatique exascale consomme beaucoup d’énergie, elle peut fournir des économies d’énergie à un projet à long terme. Par exemple, au lieu de développer, de construire et de tester de nouvelles conceptions itérativement, les ordinateurs peuvent être utilisés pour simuler pratiquement une conception dans un peu de temps relativement court.

Les ordinateurs exascale sont si sujets à l’échec

Un autre problème confronté à l’informatique exascale est la fiabilité. Plus il y a de composants dans un système, plus il devient complexe. L’ordinateur domestique moyen devrait avoir une sorte de défaillance dans les trois ans, mais en informatique exascale, le taux de défaillance est mesuré en heures.

Ce taux de défaillance court est dû à l’informatique exascale nécessitant des dizaines de milliers de processeurs et de GPU – qui fonctionnent tous à grande capacité. Compte tenu des exigences élevées simultanément attendues de tous les composants, il devient probable qu’au moins un composant échouera en quelques heures.

En raison du taux de défaillance de l’informatique exascale, les applications utilisent le point de contrôle pour économiser des progrès lors du traitement d’un calcul, en cas de défaillance du système.

Afin d’atténuer le risque de défaillance et d’éviter les temps d’arrêt inutiles, les ordinateurs exascales utilisent une suite de diagnostic aux côtés des systèmes de surveillance. Ces systèmes offrent une surveillance continue de la fiabilité globale du système et identifient les composants qui affichent des signes d’usure, les signalant pour le remplacement avant de provoquer des pannes.

« Une suite de diagnostic et un système de surveillance nous montre comment la machine fonctionne. Nous pouvons percer dans chaque composant individuel pour voir où il échoue et avoir des alertes proactives. Les techniciens travaillent également constamment sur la machine, pour remplacer les composants ratés et le garder dans un état opérationnel », a déclaré Kleyn. « Il faut beaucoup de soucis avec tendre soin pour faire avancer ces machines. »

Les vitesses de fonctionnement élevées de l’informatique exascale nécessitent des systèmes d’exploitation spécialisés afin de tirer pleinement parti de leur puissance de traitement.

« Nous devons être capables de paralléliser l’algorithme de calcul sur des millions d’unités de traitement, de manière hétérogène (sur les nœuds et dans un nœud sur les noyaux GPU ou CPU) », Manninen. « Tous les problèmes de calcul ne s’y donnent pas.

En raison de la complexité des simulations effectuées, la vérification des résultats peut également être difficile. Les résultats de l’ordinateur exascale ne peuvent pas être vérifiés, ou du moins pas dans un court laps de temps, par des ordinateurs de bureau conventionnels. Au lieu de cela, les applications utilisent les barres d’erreur prévues, qui projettent une estimation approximative de ce que devraient être les résultats attendus, avec tout ce qui en dehors de ces barres rétiquées.

Au-delà de l’informatique exascale

Selon La loi de Mooreil est prévu que le nombre de transistors dans un circuit intégré doublera tous les deux ans. Si ce taux de développement se poursuit (et c’est un grand si, comme il ne peut pas continuer éternellement), nous pourrions nous attendre à Zettascale – un avec 21 zéros après cela – informatique en environ 10 ans.

L’informatique exascale excelle à traiter simultanément un nombre massif de calculs dans un très court laps de temps, tandis que l’informatique quantique commence à résoudre des problèmes incroyablement complexes avec lesquels l’informatique conventionnelle aurait du mal. Bien que les ordinateurs quantiques ne soient actuellement pas aussi puissants que les ordinateurs exascale, il est prévu qu’ils finiront par les dépasser.

Un développement possible pourrait être une fusion de l’informatique quantique et des superordinateurs. Ce supercalculateur hybride quantique / classique combinerait la puissance de calcul des ordinateurs quantiques avec le traitement à grande vitesse de l’informatique classique. Les scientifiques ont déjà commencé ce processus, Ajout d’un ordinateur quantique au supercalculateur Fugaku au Japon.

« Alors que nous continuons à réduire ces choses et à améliorer nos capacités de refroidissement et à les rendre moins coûteuses, ce sera l’occasion de résoudre des problèmes que nous ne pourrions pas résoudre auparavant », a déclaré Kleyn.

Anissa Chauvin