Des « essaims » d'IA de nouvelle génération envahiront les médias sociaux en imitant le comportement humain et en harcelant les vrais utilisateurs, préviennent les chercheurs

Des « essaims » d’IA de nouvelle génération envahiront les médias sociaux en imitant le comportement humain et en harcelant les vrais utilisateurs, préviennent les chercheurs

Par Anissa Chauvin

Des essaims de intelligence artificielle Les agents (IA) pourraient bientôt envahir massivement les plateformes de médias sociaux pour diffuser de faux récits, harceler les utilisateurs et saper la démocratie, préviennent les chercheurs.

Ces « essaims d’IA » feront partie d’une nouvelle frontière dans la guerre de l’information, capables d’imiter le comportement humain pour éviter d’être détecté tout en créant l’illusion d’un authentique mouvement en ligne, selon un commentaire publié le 22 janvier dans la revue Science.

« Les humains, en général, sont conformistes », co-auteur du commentaire Jonas Kunstprofesseur de communication à la BI Norwegian Business School en Norvège, a déclaré à Live Science. « Souvent, nous ne voulons pas être d’accord avec cela, et les gens varient dans une certaine mesure, mais toutes choses étant égales par ailleurs, nous avons tendance à croire que ce que la plupart des gens font a une certaine valeur. C’est quelque chose qui peut relativement facilement être détourné par ces essaims. »

Et si vous ne vous laissez pas emporter par le troupeau, l’essaim pourrait également être un outil de harcèlement pour décourager les arguments qui sapent le récit de l’IA, ont soutenu les chercheurs. Par exemple, l’essaim pourrait imiter une foule en colère pour cibler un individu ayant des opinions dissidentes et le chasser de la plateforme.

Les chercheurs ne donnent pas de calendrier pour l’invasion des essaims d’IA, il est donc difficile de savoir quand les premiers agents arriveront sur nos flux. Cependant, ils ont noté que les essaims seraient difficiles à détecter et que l’on ne sait donc pas dans quelle mesure ils auraient déjà été déployés. Pour beaucoup, des signes de l’influence croissante des robots sur les réseaux sociaux sont déjà évidentstandis que le théorie du complot sur Internet morte – selon laquelle les robots sont responsables de la majorité des activités en ligne et de la création de contenu – a gagné du terrain ces dernières années.

Faire paître le troupeau

Les chercheurs préviennent que le risque émergent d’essaim d’IA est aggravé par des vulnérabilités de longue date dans nos écosystèmes numériques, déjà affaiblis par ce qu’ils ont décrit comme « l’érosion du discours rationnel-critique et le manque de réalité partagée entre les citoyens ».

Quiconque utilise les médias sociaux sait que c’est devenu un lieu très controversé. L’écosystème en ligne est également déjà jonché de robots automatisés – des comptes non humains qui suivent les commandes de logiciels informatiques qui composent plus de la moitié de tout le trafic Web. Les robots conventionnels ne sont généralement capables d’effectuer que des tâches simples, encore et encore, comme publier le même message incendiaire. Ils peuvent toujours causer du tort, diffuser de fausses informations et gonfler de faux récits, mais ils sont généralement assez faciles à détecter et dépendent des humains pour être coordonnés à grande échelle.

Les essaims d’IA de nouvelle génération, en revanche, sont coordonnés par de grands modèles de langage (LLM) – les systèmes d’IA derrière les chatbots populaires. Avec un LLM à la barre, un essaim sera suffisamment sophistiqué pour s’adapter aux communautés en ligne qu’il infiltre, installant des collections de différents personnages qui conservent mémoire et identité, selon le commentaire.

« Nous en parlons comme d’une sorte d’organisme autosuffisant, capable de se coordonner, d’apprendre, de s’adapter au fil du temps et, par conséquent, de se spécialiser dans l’exploitation des vulnérabilités humaines », a déclaré Kunst.

Cette manipulation de masse est loin d’être hypothétique. L’année dernière, Reddit a menacé de poursuites judiciaires contre les chercheurs qui ont utilisé Des chatbots IA dans une expérience pour manipuler les opinions de quatre millions d’utilisateurs dans son forum populaire r/changemyview. Selon les résultats préliminaires des chercheurs, les réponses de leurs chatbots étaient trois à six fois plus convaincantes que celles des utilisateurs humains.

Un essaim peut contenir des centaines, des milliers, voire un million, d’agents IA. Kunst a noté que ce nombre évoluait avec la puissance de calcul et serait également limité par les restrictions que les sociétés de médias sociaux pourraient introduire pour lutter contre les essaims.

Mais ce n’est pas seulement une question de nombre d’agents. Les essaims pourraient cibler des groupes communautaires locaux qui se méfieraient d’un afflux soudain de nouveaux utilisateurs. Dans ce scénario, seuls quelques agents seraient déployés. Les chercheurs ont également noté que les essaims étant plus sophistiqués que les robots traditionnels, ils peuvent avoir plus d’influence avec moins de chiffres.

« Je pense que plus ces robots sont sophistiqués, moins vous en avez besoin », a déclaré l’auteur principal du commentaire. Daniel Schröderchercheur à l’organisation de recherche technologique SINTEF en Norvège, a déclaré à Live Science.

Se protéger contre les robots de nouvelle génération

Les agents ont un avantage dans les débats avec de vrais utilisateurs, car ils peuvent publier 24 heures sur 24, tous les jours, aussi longtemps que nécessaire pour que leur récit prenne racine. Les chercheurs ont ajouté que dans la « guerre cognitive », l’acharnement et la persistance de l’IA peuvent être utilisés comme une arme contre les efforts humains limités.

Les sociétés de médias sociaux veulent de vrais utilisateurs sur leurs plateformes, et non des agents IA. Les chercheurs envisagent donc que les entreprises réagiront aux essaims d’IA en améliorant l’authentification des comptes, obligeant les utilisateurs à prouver qu’ils sont de vraies personnes. Mais les chercheurs ont également signalé certains problèmes liés à cette approche, affirmant qu’elle pourrait décourager la dissidence politique dans les pays où les gens s’appuient sur l’anonymat pour dénoncer les gouvernements. Des comptes authentiques peuvent également être piratés ou acquis, ce qui complique encore les choses. Néanmoins, les chercheurs ont noté que le renforcement de l’authentification rendrait la tâche plus difficile et plus coûteuse pour ceux qui souhaitent déployer des essaims d’IA.

Les chercheurs ont également proposé d’autres défenses contre les essaims, comme l’analyse du trafic en direct à la recherche de modèles statistiquement anormaux qui pourraient représenter des essaims d’IA et la création d’un écosystème « Observatoire de l’influence de l’IA », dans lequel les groupes universitaires, les ONG et d’autres institutions peuvent étudier, sensibiliser et répondre à la menace des essaims d’IA. Essentiellement, les chercheurs souhaitent anticiper le problème avant qu’il ne perturbe les élections et autres événements majeurs.

« Nous mettons en garde avec une certitude raisonnable contre une évolution future qui pourrait réellement avoir des conséquences disproportionnées pour la démocratie, et nous devons commencer à nous y préparer », a déclaré Kunst. « Nous devons être proactifs au lieu d’attendre que le premier type d’événements plus importants soit influencé négativement par des essaims d’IA. »

Anissa Chauvin