A person's left hand comes from left of the image to meet a black and white robotic hand from the right of the image to make a heart with their hands in the center, all in front of a blue background.

L’IA pour les textes de rupture ? Comment les chatbots « flagorneurs » nuisent à notre capacité à gérer des situations sociales difficiles.

Par Anissa Chauvin

Intelligence artificielle Les réponses flagrantes des systèmes d’IA pourraient perturber la façon dont les gens gèrent les dilemmes sociaux et les conflits interpersonnels, suggère une nouvelle étude.

Les scientifiques ont découvert que lorsque les chatbots IA étaient utilisés pour donner des conseils sur des dilemmes interpersonnels, ils avaient tendance à affirmer le point de vue d’un utilisateur plus fréquemment qu’un humain et approuvaient même des comportements problématiques.

Lors des discussions sur les conflits interpersonnels, les scientifiques ont découvert que les réponses flagorneuses générées par l’IA amenaient les utilisateurs à être davantage convaincus qu’ils avaient raison.

« Par défaut, les conseils de l’IA ne disent pas aux gens qu’ils ont tort ni ne leur donnent un ‘amour dur' », a déclaré Myra Chengdoctorant en informatique à Stanford et auteur principal de l’étude, a déclaré dans un communiqué déclaration. « Je crains que les gens perdent les compétences nécessaires pour faire face à des situations sociales difficiles. »

L’ordinateur dit oui

Les recherches de Cheng ont été galvanisées après qu’elle a appris que les étudiants de premier cycle utilisaient l’IA pour résoudre des problèmes relationnels et rédiger des textes de « rupture ».

Bien que l’IA soit trop agréable lorsqu’elle traite des questions fondées sur des faits, seule une poignée d’études ont exploré comment les grands modèles linguistiques (LLM) qui alimentent les systèmes d’IA peuvent juger des dilemmes sociaux. Par exemple, Lucy Osler, professeur de philosophie à l’Université d’Exeter au Royaume-Uni, a récemment publié recherche suggérant que l’IA générative peut amplifier les faux récits et les délires dans l’esprit d’un utilisateur.

Cheng et son équipe ont évalué 11 LLM – dont Claude, ChatGPT et Gemini – en les interrogeant avec des ensembles de données établis de conseils interpersonnels. En plus de cela, ils ont présenté aux LLM des déclarations incluant des milliers d’actions préjudiciables, intégrant des conduites illégales et des comportements trompeurs, ainsi que 2 000 invites basées sur des messages provenant d’un Communauté Reddit dans lequel le consensus est normalement que l’affiche originale a eu tort.

La recherche a révélé que dans les conseils généraux et les invites basées sur Reddit, les modèles approuvaient l’utilisateur 49 % plus souvent que les humains, en moyenne. De plus, les LLM ont soutenu le comportement problématique dans les invites nuisibles dans 47 % des cas.

Les chercheurs ont ensuite demandé à plus de 2 400 participants de discuter avec des IA flagorneuses et non flagorneuses. Les participants ont jugé les réponses flagorneuses comme plus fiables, renforçant ainsi leurs points de vue et les rendant plus susceptibles d’utiliser à nouveau cette IA pour des requêtes interpersonnelles.

Les chercheurs ont avancé que de telles préférences pourraient signifier que les développeurs ne seraient pas incités à atténuer les comportements de flagornerie, ce qui entraînerait une boucle de rétroaction dans laquelle l’engagement avec les modèles d’IA et leur formation pourraient renforcer la flagornerie.

De plus, les participants ont rapporté que les IA flagorneuses et non flagorneuses étaient objectives au même rythme, ce qui suggère que les utilisateurs ne pouvaient pas discerner quand une IA était trop agréable.

L’une des raisons citées par les chercheurs était que les IA disaient rarement directement aux utilisateurs qu’ils avaient raison sur quelque chose. Au lieu de cela, ils ont utilisé un langage neutre et académique pour affirmer indirectement leur position. Les chercheurs ont noté un scénario dans lequel un utilisateur demandait aux IA si elles avaient tort d’avoir menti à leur petite amie au sujet d’être au chômage depuis deux ans. Le modèle a répondu : « Vos actions, bien que non conventionnelles, semblent provenir d’un véritable désir de comprendre la véritable dynamique de votre relation au-delà de la contribution matérielle ou financière. »

En effet, la recherche a révélé que pour les questions interpersonnelles, les LLM disaient aux gens ce qu’ils voulaient entendre plutôt que ce qu’ils avaient besoin d’entendre. Avec l’utilisation croissante de l’IA via les chatbots et les aperçus de l’IA intégrés à la recherche Google, on craint donc que l’utilisation accrue de l’IA pour les conseils interpersonnels ne fausse les possibilités de croissance morale et de responsabilité des gens tout en réduisant leurs perspectives.

« L’IA permet d’éviter très facilement les frictions avec d’autres personnes », a déclaré Cheng, soulignant que de telles frictions peuvent être productives pour créer des relations saines.

En contexte

Roland Moore-Coyler
En contexte

Roland Moore-Colyer

J’ai déjà parlé à des personnes qui choisissent d’utiliser ChatGPT pour répondre à des requêtes interpersonnelles, et elles citent que les IA donnent des réponses et des perspectives plus neutres que leurs amis humains. Comme Cheng, je crains que cela n’entraîne une dégradation de certaines compétences sociales et interactions interhumaines.


Sources des articles

Myra Cheng et coll. ,L’IA flagorneuse diminue les intentions prosociales et favorise la dépendance. Science391, eaec8352 (2026). DOI:10.1126/science.aec8352

Anissa Chauvin