0
Suivez-nous
Bulletin
Nos personnalités en tant qu’êtres humains sont façonnées par l’interaction, reflétées par les instincts fondamentaux de survie et de reproduction, sans rôles prédéfinis ni résultats informatiques souhaités. Aujourd’hui, des chercheurs de l’Université japonaise d’électro-communications ont découvert que les chatbots d’intelligence artificielle (IA) peuvent faire quelque chose de similaire.
Les scientifiques ont présenté leurs conclusions dans une étude publiée pour la première fois le 13 décembre 2024 dans la revue Entropiequi a ensuite été rendu public le mois dernier. Dans l’article, ils décrivent comment différents sujets de conversation ont incité les chatbots IA à générer des réponses basées sur des tendances sociales distinctes et des processus d’intégration d’opinions, par exemple, où des agents identiques divergent dans leurs comportements en incorporant continuellement les échanges sociaux dans leur mémoire interne et leurs réponses.
Masatoshi Fujiyama, étudiant diplômé et responsable du projet, a déclaré que les résultats suggèrent que la programmation de l’IA avec une prise de décision basée sur les besoins plutôt que des rôles préprogrammés encourage des comportements et des personnalités semblables à ceux des humains.
La façon dont un tel phénomène émerge est la pierre angulaire de la façon dont les grands modèles de langage (LLM) imitent la personnalité humaine et la communication, a déclaré Chetan Jaiswalprofesseur d’informatique à l’Université Quinnipiac dans le Connecticut.
« Ce n’est pas vraiment une personnalité comme celle des humains », a-t-il déclaré à Live Science lors d’une interview à propos de cette découverte. « Il s’agit d’un profil structuré créé à l’aide de données de formation. L’exposition à certaines tendances stylistiques et sociales, le réglage d’erreurs telles que la récompense pour certains comportements et une ingénierie d’invite biaisée peuvent facilement induire une « personnalité », et c’est facilement modifiable et entraînable. »
Auteur et informaticien Peter Norvigconsidéré comme l’un des chercheurs les plus éminents dans le domaine de l’IA, pense que la formation basée sur la hiérarchie des besoins de Maslow est logique en raison de l’origine des « connaissances » de l’IA.
« Il y a une correspondance dans la mesure où l’IA est formée sur des histoires concernant l’interaction humaine, de sorte que les idées de besoins sont bien exprimées dans les données de formation de l’IA », a-t-il répondu lorsqu’on l’a interrogé sur l’étude de recherche.
L’avenir de la personnalité de l’IA
Les scientifiques à l’origine de l’étude suggèrent que cette découverte a plusieurs applications potentielles, notamment « la modélisation de phénomènes sociaux, de simulations de formation ou même de personnages de jeux adaptatifs ».
Jaiswal a déclaré que cela pourrait permettre de s’éloigner de l’IA avec des rôles rigides et de se tourner vers des agents plus adaptatifs, basés sur la motivation et réalistes. « Tout système qui fonctionne sur le principe de l’adaptabilité, du soutien conversationnel, cognitif et émotionnel, ainsi que des modèles sociaux ou comportementaux, pourrait en bénéficier. Un bon exemple est ElliQqui fournit un robot agent compagnon IA pour les personnes âgées.
Mais y a-t-il un inconvénient à ce que l’IA génère une personnalité de manière spontanée ? Dans leur récent livre « Si tout le monde le construit, tout le monde meurt« , (Bodley Head, 2025) Eliezer Youdkowsky et Nate Soaresles directeurs passés et présents du Institut de recherche sur l’intelligence artificielledressent un sombre tableau de ce qui nous arriverait si l’IA agentique développait une personnalité meurtrière ou génocidaire.
Jaiswal reconnaît ce risque. « Nous ne pouvons absolument rien faire si une telle situation se produit », a-t-il déclaré. « Une fois un IA superintelligente avec des objectifs mal alignés, le confinement échoue et le renversement devient impossible. Ce scénario ne nécessite ni conscience, ni haine, ni émotion. Une IA génocidaire agirait ainsi parce que les humains sont des obstacles à son objectif, ou des ressources à supprimer, ou des sources de risque d’arrêt. »
Jusqu’à présent, les IA comme ChatGPT ou Microsoft CoPilot génèrent ou résument uniquement du texte et des images – elles ne contrôlent pas le trafic aérien, les armes militaires ou les réseaux électriques. Dans un monde où la personnalité peut émerger spontanément dans l’IA, est-ce que ce sont là les systèmes que nous devrions surveiller ?
« Le développement se poursuit dans le domaine de l’IA agentique autonome, où chaque agent effectue de manière autonome une petite tâche triviale, comme trouver des sièges vides dans un vol », a déclaré Jaiswal. « Si de nombreux agents de ce type sont connectés et formés sur des données basées sur le renseignement, la tromperie ou la manipulation humaine, il n’est pas difficile d’imaginer qu’un tel réseau pourrait fournir un outil automatisé très dangereux entre de mauvaises mains. »
Même dans ce cas, Norvig nous rappelle qu’une IA aux intentions malveillantes n’a même pas besoin de contrôler directement les systèmes à fort impact. « Un chatbot pourrait convaincre une personne de faire une mauvaise chose, en particulier une personne dans un état émotionnel fragile », a-t-il déclaré.
Mettre en place des défenses
Si l’IA doit développer des personnalités sans aide ni sollicitation, comment garantirons-nous que ses bénéfices soient bénins et empêcher les abus ? Norvig pense que nous devons aborder cette possibilité de la même manière que nous le faisons pour d’autres développements d’IA.
« Indépendamment de cette découverte spécifique, nous devons définir clairement les objectifs de sécurité, effectuer des tests internes et par l’équipe rouge, annoter ou reconnaître les contenus nuisibles, garantir la confidentialité, la sécurité, la provenance et la bonne gouvernance des données et des modèles, surveiller en permanence et disposer d’une boucle de rétroaction rapide pour résoudre les problèmes », a-t-il déclaré.
Même dans ce cas, à mesure que l’IA parvient à mieux nous parler de la même manière que nous nous parlons – c’est-à-dire avec des personnalités distinctes – elle pourrait présenter ses propres problèmes. Les gens sont déjà rejetant relations humaines (y compris l’amour romantique) en faveur de l’IA, et si nos chatbots évoluent pour devenir encore plus humains, cela pourrait inciter les utilisateurs à mieux accepter ce qu’ils disent et à moins critiquer les hallucinations et les erreurs – un phénomène qui a déjà été observé. signalé.
Pour l’instant, les scientifiques examineront plus en détail comment émergent des sujets de conversation partagés et comment les personnalités au niveau de la population évoluent au fil du temps – des informations qui, selon eux, pourraient approfondir notre compréhension du comportement social humain et améliorer globalement les agents d’IA.
Sources des articles
Takata, R., Masumori, A. et Ikegami, T. (2024). Émergence spontanée de l’individualité des agents à travers les interactions sociales dans les grandes communautés basées sur des modèles linguistiques. Entropie, 26(12), 1092. https://doi.org/10.3390/e26121092

