Deux heures seulement suffisent aux agents IA pour reproduire votre personnalité avec une précision de 85 %

Deux heures seulement suffisent aux agents IA pour reproduire votre personnalité avec une précision de 85 %

Par Anissa Chauvin



Une conversation de deux heures avec un intelligence artificielle (IA) suffit pour créer une réplique précise de la personnalité d’une personne, ont découvert les chercheurs.

Dans une nouvelle étude publiée le 15 novembre dans la base de données préimprimée arXivdes chercheurs de Google et de l’Université de Stanford ont créé des « agents de simulation » – essentiellement des répliques d’IA – de 1 052 personnes sur la base d’entretiens de deux heures avec chaque participant. Ces entretiens ont été utilisés pour former un modèle d’IA génératif conçu pour imiter le comportement humain.

Pour évaluer l’exactitude des répliques de l’IA, chaque participant a effectué deux séries de tests de personnalité, d’enquêtes sociales et de jeux de logique, et a été invité à répéter le processus deux semaines plus tard. Lorsque les répliques de l’IA ont subi les mêmes tests, elles ont correspondu aux réponses de leurs homologues humains avec une précision de 85 %.

L’article propose que les modèles d’IA qui imitent le comportement humain pourraient être utiles dans divers scénarios de recherche, tels que l’évaluation de l’efficacité des politiques de santé publique, la compréhension des réponses aux lancements de produits ou même la modélisation des réactions à des événements sociétaux majeurs qui autrement pourraient être trop coûteux. , difficile ou éthiquement complexe à étudier avec des participants humains.

« Une simulation à usage général des attitudes et des comportements humains – où chaque personne simulée peut s’engager dans une gamme de contextes sociaux, politiques ou informationnels – pourrait permettre à un laboratoire de chercheurs de tester un large éventail d’interventions et de théories », ont écrit les chercheurs dans le papier. Les simulations pourraient également aider à piloter de nouvelles interventions publiques, à développer des théories autour des interactions causales et contextuelles et à accroître notre compréhension de la manière dont les institutions et les réseaux influencent les gens, ont-ils ajouté.

Pour créer les agents de simulation, les chercheurs ont mené des entretiens approfondis portant sur les histoires de vie, les valeurs et les opinions des participants sur les questions de société. Cela a permis à l’IA de capturer des nuances qui pourraient manquer dans les enquêtes classiques ou les données démographiques, ont expliqué les chercheurs. Plus important encore, la structure de ces entretiens a donné aux chercheurs la liberté de mettre en évidence ce qu’ils considéraient comme le plus important pour eux personnellement.

Les scientifiques ont utilisé ces entretiens pour générer des modèles d’IA personnalisés capables de prédire comment les individus pourraient répondre aux questions d’enquête, aux expériences sociales et aux jeux comportementaux. Cela comprenait des réponses aux Enquête sociale généraleun outil bien établi pour mesurer les attitudes et les comportements sociaux ; l’inventaire des cinq grands personnalités; et les jeux économiques, comme le jeu du dictateur et le jeu de la confiance.

Même si les agents IA ressemblaient étroitement à leurs homologues humains dans de nombreux domaines, leur précision variait selon les tâches. Ils ont particulièrement bien réussi à reproduire les réponses aux enquêtes de personnalité et à déterminer les attitudes sociales, mais étaient moins précis dans la prédiction des comportements dans les jeux interactifs impliquant la prise de décision économique. Les chercheurs ont expliqué que l’IA a généralement du mal à réaliser des tâches qui impliquent des dynamiques sociales et des nuances contextuelles.

Ils ont également reconnu le potentiel d’abus de cette technologie. L’IA et « faux profond » Les technologies sont déjà en cours utilisé par des acteurs malveillants pour tromperusurper l’identité, abuser et manipuler d’autres personnes en ligne. Les agents de simulation peuvent également être utilisés à mauvais escient, affirment les chercheurs.

Cependant, ils ont déclaré que la technologie pourrait nous permettre d’étudier des aspects du comportement humain d’une manière qui était auparavant peu pratique, en fournissant un environnement de test hautement contrôlé sans les défis éthiques, logistiques ou interpersonnels liés au travail avec des humains.

Dans une déclaration à Revue technologique du MITauteur principal de l’étude Parc Joon Sungdoctorant en informatique à Stanford, a déclaré : « Si vous pouvez avoir un groupe de petits « vous » qui courent partout et prennent réellement les décisions que vous auriez prises, je pense que, en fin de compte, c’est l’avenir. »

Anissa Chauvin