A woman looks at a smartphone with a Reddit logo displayed in the background

Les chercheurs de l’IA ont organisé une expérience secrète sur les utilisateurs de Reddit pour voir s’ils pouvaient changer d’avis – et les résultats sont effrayants

Par Anissa Chauvin

Reddit menace de poursuivre un groupe de chercheurs qui ont utilisé intelligence artificielle (AI) Chatbots pour expérimenter secrètement ses utilisateurs.

Des scientifiques de l’Université de Zurich ont lâché une armée de robots d’IA sur le populaire Forum Reddit R / Changemyview – où près de 4 millions d’utilisateurs se rassemblent pour débattre des sujets controversés – pour déterminer si la technologie pourrait être utilisée pour influencer l’opinion publique.

Pour atteindre ces objectifs, les bots ont laissé plus de 1 700 commentaires dans le subreddit, en utilisant un variété de formes supposées y compris une victime de viol masculine minimisant le traumatisme de son assaut; Un conseiller de violence domestique affirmant que les femmes les plus vulnérables sont celles « à l’abri des parents surprotecteurs »; et un homme noir opposé au mouvement Black Lives Matter. Ces robots ont fonctionné aux côtés d’un autre qui a parcouru les profils d’utilisateurs pour adapter leurs réponses pour une persuasion maximale.

Les chercheurs de Zurich ont ensuite révélé l’expérience aux modérateurs du forum « dans le cadre d’une étape de divulgation de l’étude », parallèlement à un lien vers une première ébauche de ses résultats.

« L’équipe CMV MOD doit informer la communauté CMV d’une expérience non autorisée menée par des chercheurs de l’Université de Zurich sur les utilisateurs de CMV », les modérateurs du Subreddit écrit dans un post informer les utilisateurs. « Nous pensons que c’était mal. Nous ne pensons pas que » cela n’a pas été fait auparavant « est une excuse pour faire une expérience comme celle-ci. »

Les résultats du projet, qui ont mesuré le taux de réussite des bots via une fonction de site qui permet aux utilisateurs de remettre des récompenses à des commentaires qui changent d’avis, suggèrent que les réponses de l’IA étaient entre trois et six fois plus persuasives que celles faites par les humains.

Et les auteurs, qui (allant à l’encontre de la procédure académique standard) ont laissé leurs noms non divulgués dans le projet, a noté que tout au long du procès, les utilisateurs involontaires « n’ont jamais soulevé des préoccupations selon lesquelles l’IA aurait pu générer les commentaires publiés par nos comptes ».

Le poste a été rencontré par les utilisateurs et par Ben Lee, directeur juridique de Reddit, qui dans un Commentaire sous le message L’utilisation du nom d’utilisateur Traceroo a annoncé que le site Web poursuivrait une action en justice officielle contre l’Université de Zurich.

« Ce que cette équipe de l’Université de Zurich a fait est profondément erroné à la fois au niveau moral et juridique », a écrit Lee. « Il viole la recherche académique et les normes des droits de l’homme et est interdite par l’accord d’utilisateurs et les règles de Reddit, en plus des règles de Subdredit. »

En réponse, l’Université de Zurich Tell 404 Media que les chercheurs ne publieraient pas les résultats de l’étude et qu’à l’avenir, son comité d’éthique adopterait un processus d’examen plus strict pour eux, en particulier en coordination avec les communautés en ligne avant de devenir les sujets inconscients d’une expérience de masse.

Quels que soient les wanglings légaux, des expériences comme celle-ci mettent en évidence la capacité croissante des chatbots à infiltrer le discours en ligne. En mars, Les scientifiques ont révélé Ce modèle de grande langue GPT-4.5 d’OpenAI était déjà capable de passer le test de Turing, trompant avec succès les participants à l’essai en pensant qu’ils parlaient avec un autre humain 73% du temps.

Il confère également une certaine crédibilité à l’idée que, si elle n’est pas contrôlée, les chatbots d’IA ont le potentiel de déplacer les humains dans la production de la majorité du contenu d’Internet. Appelé la théorie de « Internet mort », cette idée est Juste une théorie du complot – du moins pour l’instant.

Anissa Chauvin