Moderne ordinateur sont un triomphe de la technologie. Une seule puce informatique contient des milliards de transistors à échelle de nanomètres qui fonctionnent de manière extrêmement fiable et à un taux de millions d’opérations par seconde.
Cependant, cette vitesse et cette fiabilité élevée se rapporte au prix d’une consommation d’énergie importante: les centres de données et les appareils informatiques ménagères comme les ordinateurs et les smartphones représentent autour 3% de la demande d’électricité mondialeet l’utilisation de IA est susceptible de conduire Encore plus de consommation.
Mais que se passe-t-il si nous pouvions repenser le fonctionnement des ordinateurs afin qu’ils puissent effectuer des tâches de calcul aussi rapidement qu’aujourd’hui tout en utilisant beaucoup moins d’énergie? Ici, la nature peut nous offrir des solutions potentielles.
Le scientifique IBM Rolf Landauer a abordé la question de savoir si nous devons dépenser autant d’énergie pour les tâches informatiques en 1961. Il est venu avec la limite Landauer, qui indique qu’une seule tâche de calcul – par exemple en définissant un peu, la plus petite unité d’informations informatiques, pour avoir une valeur de zéro ou un – doit dépenser environ 10⁻² en joules (j) d’énergie .
Il s’agit d’un très petit montant, malgré les nombreux milliards de tâches que les ordinateurs effectuent. Si nous pouvions exploiter des ordinateurs à de tels niveaux, la quantité d’électricité utilisée dans le calcul et la gestion de la chaleur des déchets avec des systèmes de refroidissement ne serait pas préoccupante.
Cependant, il y a une prise. Pour effectuer un peu de fonctionnement près de la limite de Landauer, il doit être effectué à l’infini lentement. Le calcul dans n’importe quelle période finie devrait coûter un montant supplémentaire proportionnel au taux auquel les calculs sont effectués. En d’autres termes, plus le calcul est rapide, plus il y a d’énergie.
Plus récemment, cela a été démontré par des expériences Configurer pour simuler les processus de calcul: la dissipation d’énergie commence à augmenter de façon mesurable lorsque vous effectuez plus d’une opération par seconde. Les processeurs qui fonctionnent à une vitesse d’horloge d’un milliard de cycles par seconde, ce qui est typique dans les semi-conducteurs d’aujourd’hui, utilisent environ 10⁻¹½ par bit – environ dix milliards de fois plus que la limite de Landauer.
Une solution peut être de concevoir des ordinateurs d’une manière fondamentalement différente. La raison pour laquelle les ordinateurs traditionnels fonctionnent à un rythme très rapide est qu’ils fonctionnent en série, une opération à la fois. Si au lieu de cela, on pouvait utiliser un très grand nombre « d’ordinateurs » fonctionnant en parallèle, chacun pourrait fonctionner beaucoup plus lent.
Par exemple, on pourrait remplacer un processeur « lièvre » qui effectue un milliard d’opérations en une seconde par un milliard de processeurs « Tortoise », chacun prenant une seconde complète pour effectuer sa tâche, à un coût énergétique beaucoup plus faible. Un article de 2023 que j’ai co-écrit a montré qu’un ordinateur pouvait alors opérer près de la limite Landaueren utilisant les ordres de grandeur moins d’énergie que les ordinateurs d’aujourd’hui.
Puissance de tortue
Est-il même possible que des milliards de « ordinateurs » indépendants fonctionnent en parallèle? Le traitement parallèle à plus petite échelle est déjà couramment utilisé aujourd’hui, par exemple lorsque environ 10 000 unités de traitement graphique ou GPU fonctionnent en même temps pour former des modèles d’intelligence artificielle.
Cependant, cela n’est pas fait pour réduire la vitesse et augmenter l’efficacité énergétique, mais plutôt par nécessité. Les limites de la gestion de la chaleur rendent impossible d’augmenter davantage la puissance de calcul d’un seul processeur, de sorte que les processeurs sont utilisés en parallèle.
Un autre système informatique qui est beaucoup plus proche de ce qui serait nécessaire pour aborder la limite Landauer est connu sous le nom de biocomputation basé sur le réseau. Il utilise des protéines moteurs biologiques, qui sont de minuscules machines qui aident à effectuer des tâches mécaniques à l’intérieur des cellules.
Ce système consiste à coder une tâche de calcul dans un labyrinthe nanofabrifié de canaux avec des intersections soigneusement conçues, qui sont généralement faites de motifs de polymère déposés sur des tranches de silicium. Tous les chemins possibles à travers le labyrinthe sont explorés en parallèle par un très grand nombre de longues molécules en forme de fil appelées biofilaments, qui sont alimentées par les protéines motrices.
Chaque filament n’a que quelques nanomètres de diamètre et environ un micromètre (1 000 nanomètres). Ils agissent chacun comme un «ordinateur» individuel, codant pour les informations par sa position spatiale dans le labyrinthe.
Cette architecture est particulièrement adaptée pour résoudre des problèmes dits combinatoires. Ce sont des problèmes avec de nombreuses solutions possibles, telles que les tâches de planification, qui sont très exigeantes en calcul pour les ordinateurs en série. Les expériences confirment qu’un tel bio-ordinateur nécessite entre 1 000 et 10 000 fois moins d’énergie par calcul qu’un processeur électronique.
Cela est possible car les protéines motrices biologiques sont elles-mêmes évoluées pour ne pas utiliser d’énergie que nécessaire pour effectuer leur tâche au taux requis. Il s’agit généralement de quelques centaines de pas par seconde, un million de fois plus lent que les transistors.
À l’heure actuelle, Seuls les petits ordinateurs biologiques ont été construits par des chercheurs pour prouver le concept. Pour être compétitif avec les ordinateurs électroniques en termes de vitesse et de calcul, et d’explorer un très grand nombre de solutions possibles dans la biocomputation parallèle basée sur le réseau doit être étendue.
Une analyse détaillée montre que cela devrait être possible avec la technologie actuelle des semi-conducteurs et pourrait profiter d’un autre grand avantage des biomolécules sur les électrons, à savoir leur capacité à transporter des informations individuelles, par exemple sous la forme d’une étiquette ADN.
Il existe néanmoins de nombreux obstacles à la mise à l’échelle de ces machines, notamment à apprendre à contrôler avec précision chacune des biofilaments, à réduire leurs taux d’erreur et à les intégrer à la technologie actuelle. Si ces types de défis peuvent être surmontés au cours des prochaines années, les processeurs résultants pourraient résoudre certains types de problèmes de calcul difficiles avec un coût énergétique massivement réduit.
Calcul neuromorphe
Alternativement, c’est un exercice intéressant pour comparer la consommation d’énergie dans le cerveau humain. Le cerveau est souvent salué comme étant très économe en énergie, en utilisant juste quelques watts – bien moins que les modèles d’IA – pour des opérations comme la respiration ou la pensée.
Pourtant, cela ne semble pas être les éléments physiques de base du cerveau qui économisent de l’énergie. Le tir d’une synapse, qui peut être comparé à une seule étape de calcul, utilise en fait environ la même quantité d’énergie qu’un transistor nécessite par bit.
Cependant, l’architecture du cerveau est très interconnectée et fonctionne fondamentalement différemment des processeurs électroniques et des bio-ordinateurs basés sur le réseau. Soi-disant calcul neuromorphe tente d’imiter cet aspect des opérations cérébrales, mais en utilisant de nouveaux types de matériel informatique par opposition au biocompusage.
Il serait très intéressant de comparer les architectures neuromorphes à la limite de Landauer pour voir si les mêmes types d’informations du biocomputing pourraient être transférables ici à l’avenir. Si c’est le cas, il pourrait également maintenir la clé à un énorme bond en avant dans l’efficacité énergétique informatique dans les années à venir.
Cet article édité est republié à partir de La conversation sous une licence créative Commons. Lire le article original.