A close up of a computer chip against a blue glowing background

Découvrez AGI CPU – un processeur spécialisé qui, selon les ingénieurs, alimentera la prochaine vague d’IA

Par Anissa Chauvin

Le concepteur de puces Arm est entré dans le intelligence artificielle (IA) avec son premier processeur interne conçu pour alimenter les agents IA. Contrairement aux chatbots conventionnels, il s’agit de systèmes beaucoup plus intelligents qui peuvent prendre des mesures proactives pour atteindre leurs objectifs sans autant d’intervention ou de supervision humaine.

En se concentrant spécifiquement sur l’alimentation des agents d’IA, la puce d’Arm pourrait contribuer à accélérer l’adoption et l’utilisation généralisée des IA agentiques, que ce soit dans les entreprises ou dans la vie personnelle, rapprochant ainsi l’IA de ce que les gens attendent des assistants virtuels.

Dans ce cas, considérez un processeur comme le chef d’orchestre d’un orchestre de GPU et d’autres accélérateurs d’IA (un matériel spécialement conçu pour exécuter des LLM).

À ce titre, les représentants d’Arm ont annoncé dans un déclaration que son nouveau processeur AGI a une conception personnalisée – comprenant des nœuds de processus de 3 nanomètres, jusqu’à 136 cœurs Neoverse V3 pouvant atteindre des vitesses d’horloge de 3,7 GHz et une bande passante mémoire de 6 gigaoctets par seconde par cœur – pour une utilisation dans les centres de données qui alimentent les agents d’IA actifs.

Toutes ces capacités visent à atteindre l’objectif d’offrir de meilleures performances et efficacité que les processeurs classiques qui utilisent l’architecture x86, l’architecture informatique dominante développée par Intel en 1978 et encore utilisée dans les processeurs aujourd’hui.

L’avenir des puces personnalisées

Avec la croissance inexorable de l’IA et le déploiement d’agents intelligents, il est nécessaire de disposer de davantage de matériel basé sur les centres de données pour alimenter ces systèmes. Cependant, la nature polyvalente des processeurs signifie qu’ils ne sont pas intrinsèquement conçus pour exécuter l’orchestration spécifique nécessaire aux IA agents.

Le processeur AGI d’Arm utilise le Architecture Armv9.2-A en son cœur. Cette architecture a été conçue pour répondre aux besoins spécialisés liés à l’exécution de l’IA en action, ce que l’on appelle l’inférence. Avec cette spécialité, il n’est pas nécessaire qu’un processeur AGI prenne en charge d’autres processus et applications, comme le montrent les puces x86, des processeurs conventionnels utilisés dans les ordinateurs classiques.

Cela devrait permettre des performances plus rapides et plus efficaces destinées aux IA. Les représentants d’Arm ont déclaré que son processeur AGI offre des performances par rack de serveur plus de deux fois supérieures à celles des processeurs x86.

Le processeur AGI a été conçu pour regrouper deux puces avec une mémoire dédiée et une fonctionnalité d’entrée/sortie (E/S) dans une seule lame de serveur avec un total de 272 cœurs par lame. Les lames peuvent ensuite être empilées dans des racks de serveurs de 30, offrant un total de 8 160 cœurs avec des performances soutenues pour les charges de travail d’IA agentique à « grande échelle », grâce à des milliers de cœurs fonctionnant en parallèle.

La spécialité d’Arm dans la conception de puces se concentre sur l’offre performances élevées pour une consommation d’énergie relativement faible. C’est l’une des raisons pour lesquelles toutes les puces de smartphone utilisent des processeurs ou des jeux d’instructions basés sur Arm. Par exemple, Qualcomm utilise la technologie Arm dans les puces Snapdragon et Apple l’utilise dans ses puces iPhone et MacBook.

À mesure que l’IA continue de passer de la formation des LLM au déploiement actif d’IA agentiques, il y aura un besoin accru de puissance de traitement basée sur le processeur dans les centres de données. Cela devrait générer un énorme augmentation de la demande énergétique de l’IA.

Le processeur AGI a été conçu pour regrouper deux puces avec une mémoire dédiée et une fonctionnalité d’entrée/sortie (E/S) dans une seule lame de serveur avec un total de 272 cœurs par lame. Les lames peuvent ensuite être empilées dans des racks de serveurs de 30, offrant un total de 8 160 cœurs avec des performances soutenues pour les charges de travail d’IA agentique à « grande échelle », grâce à des milliers de cœurs fonctionnant en parallèle.

La spécialité d’Arm dans la conception de puces se concentre sur l’offre performances élevées pour une consommation d’énergie relativement faible. C’est l’une des raisons pour lesquelles toutes les puces de smartphone utilisent des processeurs ou des jeux d’instructions basés sur Arm. Par exemple, Qualcomm utilise la technologie Arm dans les puces Snapdragon et Apple l’utilise dans ses puces iPhone et MacBook.

À mesure que l’IA continue de passer de la formation des LLM au déploiement actif d’IA agentiques, il y aura un besoin accru de puissance de traitement basée sur le processeur dans les centres de données. Cela devrait générer un énorme augmentation de la demande énergétique de l’IA.

EN CONTEXTE

Keumars Afifi-Sabet
EN CONTEXTE

Keumars Afifi-Sabet

Arm a le potentiel de vraiment bouleverser les choses dans ce qui est devenu une sorte de course aux armements dans le domaine des puces informatiques. S’il peut offrir des processeurs offrant de fortes performances d’inférence d’IA tout en étant plus efficaces que les processeurs x86, il pourrait freiner la demande croissante d’énergie tout en perturbant Intel, AMD et le géant du matériel Nvidia, qui possède ses propres processeurs Vera basés sur Arm.

Cette architecture est déjà utilisée dans les puces destinées aux centres de données d’IA, et le concepteur de puces est donc en bonne position pour faire sa propre incursion dans la fourniture de processeurs « prêts à l’emploi ».

Alors qu’Arm a traditionnellement concédé ses conceptions sous licence à d’autres fabricants de puces, le processeur AGI constituera sa première tentative de fabrication de matériel que d’autres entreprises pourront acheter et déployer dans leurs centres de données. Cela laisse présager un avenir dans lequel davantage de matériel sera conçu sur mesure pour alimenter l’IA, que ce soit pour exécuter les LLM plus efficacement, comme le montre l’architecture de circuit intégré spécifique à une application (ASIC) trouvée dans le TPU de Google et la puce Trainium d’Amazon, ou à des fins d’inférence, dans le cas de la puce Maia 200 de Microsoft.

Les puces personnalisées capables de surmonter certaines des contraintes matérielles liées à l’exploitation de l’IA à grande échelle pourraient perturber la composition traditionnelle du matériel informatique général des centres de données. Ceci, à son tour, pourrait accélérer le chemin vers l’intelligence artificielle générale (AGI), un système d’IA hypothétique capable d’apprendre, de comprendre et d’appliquer des connaissances dans plusieurs domaines au niveau humain ou au-delà.

Anissa Chauvin