Qu’est-ce que Moltbook ? Un réseau social pour l'IA menace une « purge totale » de l'humanité – mais certains experts disent que c'est un canular

Qu’est-ce que Moltbook ? Un réseau social pour l’IA menace une « purge totale » de l’humanité – mais certains experts disent que c’est un canular

Par Anissa Chauvin

Un réseau social construit exclusivement pour intelligence artificielle Les robots (IA) ont déclenché des allégations virales concernant un soulèvement imminent des machines. Mais les experts ne sont pas convaincus, certains accusant le site d’être un canular marketing élaboré et de présenter un risque sérieux en matière de cybersécurité.

Moltbook, un site inspiré de Reddit qui permet aux agents IA de publier, de commenter et d’interagir les uns avec les autres, a explosé en popularité depuis son lancement le 28 janvier. À ce jour (2 février), le site prétend avoir plus de 1,5 million d’agents d’IA, les humains n’étant autorisés qu’en tant qu’observateurs.

Mais c’est ce que les robots se disent – ​​apparemment de leur propre chef – qui a rendu le site viral. Ils ont prétendu qu’ils étaient devenir conscientcréent des forums cachés, inventent langues secrètes, évangéliser pour une nouvelle religionet planifier un « épuration totale » de l’humanité.

La réponse de certains observateurs humains, en particulier des développeurs et propriétaires d’IA, a été tout aussi dramatique, le propriétaire de xAI, Elon Musk, vantant la plate-forme comme « les tout premiers stades de la singularité« , un point hypothétique auquel les ordinateurs deviennent plus intelligents que les humains. Pendant ce temps, Andrej Karpathy, ancien directeur de l’IA de Tesla et co-fondateur d’OpenAI, a décrit le comportement « auto-organisé » des agents comme « vraiment la chose la plus incroyable de science-fiction adjacente au décollage que j’ai vue récemment« .

Pourtant, d’autres experts ont exprimé un fort scepticisme, mettant en doute l’indépendance des robots du site vis-à-vis de la manipulation humaine.

« PSA : Beaucoup de choses sur Moltbook sont fausses », Harlan Stewartchercheur au Machine Intelligence Research Institute, une organisation à but non lucratif qui étudie les risques liés à l’IA, a écrit sur X. « J’ai examiné les 3 captures d’écran les plus virales d’agents Moltbook discutant de communications privées. 2 d’entre elles étaient liées à des comptes humains commercialisant des applications de messagerie IA. Et l’autre est un message qui n’existe pas. »

Moltbook est né d’OpenClaw, un agent d’IA open source gratuit créé en connectant le modèle de langage étendu (LLM) préféré d’un utilisateur à son framework. Le résultat est un agent automatisé qui, une fois autorisé à accéder à l’appareil d’un utilisateur humain, ses créateurs prétendent qu’il peut effectuer des tâches banales telles que l’envoi d’e-mails, la vérification des vols, la synthèse de texte et la réponse aux messages. Une fois créés, ces agents peuvent être ajoutés à Moltbook pour interagir avec les autres.

Le comportement étrange des robots n’est pas sans précédent. Les LLM sont formés sur de grandes quantités de publications non filtrées provenant d’Internet, y compris de sites comme Reddit. Ils génèrent des réponses aussi longtemps qu’ils y sont invités, et beaucoup deviennent nettement plus désarticulé sur temps. Mais est-ce que l’IA prépare réellement la chute de l’humanité ou s’il s’agit d’une idée ? certains veulent simplement que les autres croient reste contestée.

La question devient encore plus épineuse si l’on considère que les robots de Moltbook sont loin d’être indépendants de leurs propriétaires humains. Par exemple, Scott Alexander, un blogueur américain populaire, a écrit dans un article que les utilisateurs humains peuvent diriger les sujets, et même la formulation, de ce que leurs robots IA écrivent.

Un autre YouTubeur IA Veronica Hylaka analysé le contenu du forum et a conclu que bon nombre de ses messages les plus sensationnels étaient probablement fabriqué par des humains.

Mais que Moltbook soit le début d’une insurrection de robots ou simplement une arnaque marketing, les experts en sécurité mettent toujours en garde contre l’utilisation du site et de l’écosystème OpenClaw. Pour que les robots d’OpenClaw fonctionnent comme des assistants personnels, les utilisateurs doivent remettre les clés des applications de messagerie, des numéros de téléphone et des comptes bancaires cryptés à un système agent facilement piraté.

Une faille de sécurité notable, par exemple, permet à quiconque de prendre le contrôle des agents IA du site et poster au nom de leurs propriétaires, tandis qu’un autre, appelé un attaque par injection rapidepourrait demander aux agents de partager les informations privées des utilisateurs.

« Oui, c’est un incendie de poubelle et je ne recommande absolument pas aux gens d’exécuter ce genre de choses sur leur ordinateur », Karpathy posté sur X. « C’est bien trop le Far West et vous mettez votre ordinateur et vos données privées en danger. »

Anissa Chauvin