Progrès rapide dans intelligence artificielle (AI) incite les gens à se demander quelles sont les limites fondamentales de la technologie. De plus en plus, un sujet autrefois consigné dans la science-fiction – la notion d’une IA superintelligente – est maintenant considérée sérieusement par les scientifiques et les experts.
L’idée que les machines pourraient un jour correspondre ou même dépasser l’intelligence humaine a une longue histoire. Mais le rythme des progrès dans l’IA au cours des dernières décennies a donné une urgence renouvelée au sujet, en particulier depuis la sortie de modèles puissants puissants de grande langue (LLM) par des entreprises comme Openai, Google et Anthropic, entre autres.
Les experts ont des points de vue extrêmement différents sur la réalisation de cette idée de la « super intelligence artificielle » (ASI) et quand il peut apparaître, mais certains suggèrent que de telles machines hyper captivantes approchent. Ce qui est certain, c’est que si, et quand, ASI émerge, cela aura d’énormes implications pour l’avenir de l’humanité.
« Je crois que nous entrerions dans une nouvelle ère de découvertes scientifiques automatisées, de croissance économique, de longévité et de nouvelles expériences de divertissement considérablement accélérées », » Tim Rocktäschelprofesseur d’IA à l’Université College de Londres et scientifique principal chez Google Deepmind, a déclaré à Live Science, offrant une opinion personnelle plutôt que la position officielle de Google Deepmind. Cependant, il a également averti: « Comme pour toute technologie significative de l’histoire, il existe un risque potentiel. »
Qu’est-ce que la superintelligence artificielle (ASI)?
Traditionnellement, la recherche sur l’IA s’est concentrée sur la réplication des capacités spécifiques que les êtres intelligents présentent. Il s’agit notamment de choses comme la capacité d’analyser visuellement une scène, d’analyser le langage ou de naviguer dans un environnement. Dans certains de ces domaines étroits, l’IA a déjà atteint la performance surhumaine, Rocktäschel a déclaré, notamment en des jeux comme Go et les échecs.
L’objectif extensible du champ, cependant, a toujours été de reproduire la forme la plus générale de l’intelligence observée chez les animaux et les humains qui combine de nombreuses capacités de ce type. Ce concept est passé par plusieurs noms au fil des ans, notamment «IA fort» ou «IA universel», mais aujourd’hui, il est le plus communément appelé intelligence générale artificielle (AGI).
« Depuis longtemps, Agi a été une étoile du Nord lointaine pour la recherche sur l’IA », a déclaré Rocktäschel. « Cependant, avec l’avènement des modèles de fondation (un autre terme pour les LLM), nous avons maintenant une IA qui peut passer un large éventail d’examens d’entrée universitaire et participer à des compétitions internationales de mathématiques et de codage. »
Cela conduit les gens à prendre la possibilité d’AGI plus au sérieux, a déclaré Rocktäschel. Et surtout, une fois que nous avons créé l’IA qui correspond aux humains sur un large éventail de tâches, il ne faudra peut-être pas longtemps pour obtenir des capacités surhumaines à tous les niveaux. C’est l’idée, de toute façon. « Une fois que l’IA atteint les capacités au niveau humain, nous pourrons l’utiliser pour s’améliorer de manière auto-référentielle », a déclaré Rocktäschel. « Je crois personnellement que si nous pouvons atteindre AGI, nous atteindrons ASI sous peu, peut-être quelques années après. »
Une fois cette étape franchie, nous avons pu voir ce que le mathématicien britannique Irving John Good surnommé un « explosion de l’intelligence« En 1965. Il a soutenu qu’une fois que les machines deviennent suffisamment intelligentes pour s’améliorer, elles atteindraient rapidement des niveaux d’intelligence bien au-delà de tout humain. Il a décrit la première machine ultra-intelligente comme » la dernière invention dont l’homme a besoin. «
Futuriste renommé Ray Kurzweil a fait valoir que cela conduirait à une « singularité technologique » qui transformerait soudainement et irréversiblement la civilisation humaine. Le terme établit des parallèles avec la singularité au cœur d’un trou noir, où notre compréhension de la physique se décompose. De la même manière, l’avènement de l’ASI entraînerait une croissance technologique rapide et imprévisible qui serait au-delà de notre compréhension.
Exactement lorsqu’une telle transition peut se produire est discutable. En 2005, Kurzweil a prédit qu’Agi apparaîtrait d’ici 2029, avec la singularité après en 2045, une prédiction à laquelle il est resté depuis. D’autres experts de l’IA offrent des prédictions variables – de cette décennie à jamais. Mais un enquête récente Sur 2 778 chercheurs d’IA ont constaté que, à l’agrégat, ils croient qu’il y a 50% de chances que l’ASI puisse apparaître d’ici 2047. A analyse plus large a conclu que la plupart des scientifiques conviennent qu’Agi pourrait arriver d’ici 2040.
Que signifierait ASI pour l’humanité?
Les implications d’une technologie comme ASI seraient énormes, incitant les scientifiques et les philosophes à consacrer un temps considérable à cartographier la promesse et les pièges potentiels de l’humanité.
Du côté positif, une machine avec une capacité d’intelligence presque illimitée pourrait résoudre certains des défis les plus urgents du monde, a déclaré Daniel HulmePDG des sociétés d’IA Satalia et Constituant. En particulier, les machines super intelligentes pourraient « retirer la friction de la création et de la diffusion de la nourriture, de l’éducation, des soins de santé, de l’énergie, des transports, tellement que nous pouvons ramener le coût de ces biens à zéro », a-t-il déclaré à Live Science.
L’espoir est que cela libérerait les gens de devoir travailler pour survivre et pourrait plutôt passer du temps à faire des choses qui les passionnaient, a expliqué Hulme. Mais à moins que les systèmes ne soient mis en place pour soutenir ceux dont les travaux sont rendus redondants par l’IA, le résultat pourrait être plus sombre. « Si cela se produit très rapidement, nos économies pourraient ne pas être en mesure de rééquilibrer, et cela pourrait entraîner des troubles sociaux », a-t-il déclaré.
Cela suppose également que nous pourrions contrôler et diriger une entité beaucoup plus intelligente que nous – ce que de nombreux experts ont suggéré est peu probable. « Je ne souscris pas vraiment à cette idée qu’elle veillera sur nous et prendra soin de nous et s’assurera que nous sommes heureux », a déclaré Hulme. « Je ne peux pas imaginer que ça s’en soucierait. »
La possibilité d’une superintelligence sur laquelle nous n’avons aucun contrôle a suscité des craintes que l’IA puisse présenter un Risque existentiel pour nos espèces. Cela est devenu un trope populaire dans la science-fiction, avec des films comme « Terminator » ou « The Matrix » dépeignant des machines malveillantes et déterminées à la destruction de l’humanité.
Mais philosophe Nick Bostrom a souligné qu’un ASI n’aurait même pas à être activement hostile aux humains pour que divers scénarios Doomsday se déroulent. Dans Un article de 2012Il a suggéré que l’intelligence d’une entité est indépendante de ses objectifs, donc un ASI pourrait avoir des motivations qui sont complètement étrangères pour nous et non alignées sur le bien-être humain.
Bostrom a étoffé cette idée avec une expérience de pensée dans laquelle une IA super capable est définie la tâche apparemment inoffensive de produire autant de pivots de papier. S’il n’est pas aligné avec des valeurs humaines, il peut décider d’éliminer tous les humains pour les empêcher de l’éteindre, ou du moins il peut transformer tous les atomes de leur corps en plus de trombones.
Rocktäschel est plus optimiste. « Nous construisons les systèmes d’IA actuels pour être utiles, mais aussi des assistants inoffensifs et honnêtes par conception », a-t-il déclaré. « Ils sont réglés pour suivre les instructions humaines et sont formés aux commentaires pour fournir des réponses utiles, inoffensives et honnêtes. »
Alors que Rocktäschel a admis que ces garanties peuvent être contournées, il est convaincu que nous développerons de meilleures approches à l’avenir. Il pense également qu’il sera possible d’utiliser l’IA pour superviser d’autres IA, même s’ils sont plus forts.
Hulme a déclaré que les approches les plus récentes de « l’alignement du modèle » – les efforts pour s’assurer que l’IA est alignée sur les valeurs et les désirs humains – sont trop grossiers. En règle générale, ils fournissent des règles sur la façon dont le modèle doit se comporter ou le former sur des exemples de comportement humain. Mais il pense que ces garde-corps, qui sont boulonnés à la fin du processus de formation, pourraient être facilement contournés par l’ASI.
Au lieu de cela, Hulme pense que nous devons construire l’IA avec un « instinct moral ». L’entreprise est consciente qui tente de le faire en évoluant l’IA dans des environnements virtuels qui ont été conçus pour récompenser les comportements comme la coopération et l’altruisme. Actuellement, ils travaillent avec une IA « au niveau des insectes » très simple, mais si l’approche peut être mise à l’échelle, cela pourrait rendre l’alignement plus robuste. « L’intégration de la morale dans l’instinct d’une IA nous met dans une position beaucoup plus sûre que d’avoir ce genre de rails de garde Whack-A-Mole », a déclaré Hulme.
Cependant, tout le monde n’est pas encore convaincu que nous devons commencer à nous inquiéter tout à fait. Une critique commune du concept de l’ASI, a déclaré Rocktäschel, est que nous n’avons aucun exemple d’humains qui sont très capables dans un large éventail de tâches, il peut donc ne pas être possible d’y parvenir dans un seul modèle. Une autre objection est que les ressources informatiques prises nécessaires pour atteindre l’ASI peuvent être prohibitive.
Plus pratiquement, la façon dont nous mesurons les progrès dans l’IA peut nous tromper sur la proximité que nous sommes proches de la superintelligence, dit Alexander Ilicchef du centre eth ai à ETH Zurich, en Suisse. La plupart des résultats impressionnants dans l’IA ces dernières années proviennent de systèmes de test sur plusieurs tests très conçus de compétences individuelles telles que le codage, le raisonnement ou la compréhension du langage, que les systèmes sont explicitement formés pour passer, a déclaré ILIC.
Il le compare à l’entourement des examens à l’école. « Vous avez chargé votre cerveau pour le faire, puis vous avez écrit le test, puis vous avez tout oublié », a-t-il déclaré. « Vous étiez plus intelligent en assistant à la classe, mais le test réel lui-même n’est pas un bon indicateur de la connaissance réelle. »
L’IA qui est capable de passer bon nombre de ces tests aux niveaux surhumaines ne peut être que dans quelques années, a déclaré ILIC. Mais il pense que l’approche dominante d’aujourd’hui ne conduira pas à des modèles qui peuvent effectuer des tâches utiles dans le monde physique ou collaborer efficacement avec les humains, ce qui sera crucial pour eux d’avoir un large impact dans le monde réel.