Digital generated image of hand going through portal and touching robotic hand.

Qu’est-ce que l’intelligence artificielle générale (IAG) ?

Par Anissa Chauvin



L’intelligence artificielle générale (AGI) est un domaine de intelligence artificielle (IA) Recherche dans laquelle les scientifiques s’efforcent de créer un système informatique généralement plus intelligent que les humains. Ces systèmes hypothétiques pourraient avoir un certain degré d’autocompréhension et de maîtrise de soi — y compris la capacité de modifier leur propre code — et être capables d’apprendre à résoudre des problèmes comme les humains, sans avoir été formés pour le faire.

Le terme a été inventé pour la première fois en «Intelligence artificielle générale » (Springer, 2007), un recueil d’essais édité par un informaticien Ben Goertzel et chercheur en IA Cassio Pennachin. Mais le concept existe depuis des décennies dans le monde entier. histoire de l’IAet apparaît dans de nombreux livres et films de science-fiction populaires.

Les services d’IA utilisés aujourd’hui, notamment les algorithmes d’apprentissage automatique de base utilisés sur Facebook et même les grands modèles linguistiques (LLM) comme ChatGPT, sont considérés comme « étroits ». Cela signifie qu’ils peuvent effectuer au moins une tâche – comme la reconnaissance d’images – mieux que les humains, mais sont limités à ce type de tâche spécifique ou à ce groupe d’actions en fonction des données sur lesquelles ils ont été formés. L’IAG, en revanche, transcenderait les limites de ses données de formation et démontrerait des capacités de niveau humain dans divers domaines de la vie et de la connaissance, avec le même niveau de raisonnement et de contextualisation qu’une personne.

Mais comme l’IA générale n’a jamais été construite, il n’y a pas de consensus parmi les scientifiques sur ce que cela pourrait signifier pour l’humanité, sur les risques plus probables que d’autres ou sur les implications sociales. Certains ont déjà spéculé que cela n’arriverait jamais, mais de nombreux scientifiques et techniciens convergent vers l’idée de parvenir à ce résultat. AGI dans les prochaines années — y compris l’informaticien Ray Kurzweil et des dirigeants de la Silicon Valley comme Mark Zuckerberg, Sam Altman et Elon Musk.

Quels sont les avantages et les risques de l’AGI ?

L’IA a déjà démontré de nombreux avantages dans divers domaines, notamment aider à la recherche scientifique Les outils de génération de contenu permettent de gagner du temps. Les systèmes plus récents, comme les outils de génération de contenu, génèrent des illustrations pour des campagnes marketing ou des brouillons d’e-mails en fonction des habitudes de conversation d’un utilisateur, par exemple. Mais ces outils ne peuvent effectuer que les tâches spécifiques pour lesquelles ils ont été formés, en fonction des données que les développeurs leur ont fournies. L’AGI, en revanche, peut apporter une autre tranche d’avantages à l’humanité, en particulier dans les domaines où la résolution de problèmes est nécessaire.

En théorie, l’AGI pourrait contribuer à accroître l’abondance des ressources, à dynamiser l’économie mondiale et à favoriser la découverte de nouvelles connaissances scientifiques qui modifient les limites de ce qui est possible, a écrit le PDG d’OpenAI, Sam Altman, dans un article publié dans le numéro de novembre 2018 de la revue Science. article de blog publié en février 2023, trois mois après la mise en ligne de ChatGPT. « L’AGI a le potentiel de donner à chacun de nouvelles capacités incroyables ; nous pouvons imaginer un monde où nous avons tous accès à de l’aide pour presque toutes les tâches cognitives, fournissant un formidable multiplicateur de force pour l’ingéniosité et la créativité humaines », a ajouté Altman.

Il existe cependant de nombreux risques existentiels posés par l’AGI, allant de «désalignement,« dans lequel les objectifs sous-jacents d’un système peuvent ne pas correspondre à ceux des humains qui le contrôlent, à la « probabilité non nulle » qu’un futur système anéantisse toute l’humanité », a déclaré Elon Musk en 2023. Une critique, publiée en août 2021 dans le Journal d’intelligence artificielle expérimentale et théoriquea souligné plusieurs risques possibles d’un futur système AGI, malgré les « énormes avantages pour l’humanité » qu’il pourrait potentiellement apporter.

« L’étude a identifié une série de risques associés à l’AGI, notamment le fait que l’AGI se soustrait au contrôle des propriétaires/gestionnaires humains, l’attribution ou le développement d’objectifs dangereux, le développement d’AGI dangereux, d’AGI avec une éthique, une morale et des valeurs médiocres, une gestion inadéquate de l’AGI et des risques existentiels », ont écrit les auteurs dans l’étude.

Les auteurs ont également émis l’hypothèse que la technologie du futur pourrait « avoir la capacité de s’auto-améliorer de manière récursive en créant des versions plus intelligentes d’elle-même, ainsi qu’en modifiant ses objectifs préprogrammés ». Il existe également la possibilité que des groupes d’humains créent des AGI à des fins malveillantes, ainsi que des « conséquences catastrophiques imprévues » provoquées par des AGI bien intentionnées, ont écrit les chercheurs.

Quand l’AGI aura-t-elle lieu ?

Il existe des points de vue divergents sur la question de savoir si les humains peuvent réellement construire un système suffisamment puissant pour être une IAG, et encore moins sur la date à laquelle un tel système pourra être construit. évaluation de plusieurs enquêtes majeures auprès des scientifiques en IA L’hypothèse générale est que l’AGI pourrait se produire avant la fin du siècle, mais les opinions ont également évolué au fil du temps. Dans les années 2010, l’opinion générale était que l’AGI serait réalisable dans environ 50 ans. Mais récemment, cette estimation a été ramenée à une période comprise entre cinq et 20 ans.

Ces derniers mois, un certain nombre d’experts ont suggéré qu’un système d’IAG verrait le jour au cours de cette décennie. C’est la chronologie que Kurzweil a avancée dans son livre « La singularité est plus proche » (2024, Penguin) — avec le moment où nous atteignons l’AGI représentant la singularité technologique.

Ce moment sera un point de non-retour, après lequel la croissance technologique deviendra incontrôlable et irréversible. Kurzweil prédit que l’avènement de l’IA générale mènera à une superintelligence d’ici les années 2030, puis, en 2045, les gens pourront connecter leur cerveau directement à l’IA, ce qui élargira l’intelligence et la conscience humaines.

D’autres membres de la communauté scientifique suggèrent que l’AGI pourrait se produire prochainement. Goertzel, par exemple, a suggéré que nous pourrait atteindre la singularité d’ici 2027tandis que le co-fondateur de DeepMind, Shane Legg, a déclaré qu’il prévoit l’AGI d’ici 2028. Musk a également suggéré L’IA sera plus intelligente que l’humain le plus intelligent d’ici fin 2025.

Anissa Chauvin