0
Suivez-nous
Le 5 février, Anthropic a sorti Claude Opus 4.6, son modèle d’intelligence artificielle le plus puissant. Parmi les nouvelles fonctionnalités du modèle figure la capacité de coordonner des équipes d’agents autonomes – plusieurs IA qui divisent le travail et le réalisent en parallèle. Douze jours après la sortie d’Opus 4.6, la société a abandonné Sonnet 4.6, un modèle moins cher qui correspond presque aux compétences en codage et en informatique d’Opus. Fin 2024, lorsqu’Anthropic a introduit pour la première fois des modèles capables de contrôler des ordinateurs, ils pouvaient à peine faire fonctionner un navigateur. Désormais, Sonnet 4.6 peut naviguer dans les applications Web et remplir des formulaires avec des capacités de niveau humain, selon Anthropic. Et les deux modèles disposent d’une mémoire de travail suffisamment grande pour contenir une petite bibliothèque.
Les entreprises clientes représentent désormais environ 80 % du chiffre d’affaires d’Anthropic, et la société a clôturé la semaine dernière un cycle de financement de 30 milliards de dollars pour une valorisation de 380 milliards de dollars. Selon toutes les mesures disponibles, Anthropic est l’une des entreprises technologiques à la croissance la plus rapide de l’histoire.
Mais derrière les grands lancements et valorisations de produits, Anthropic fait face à une menace sérieuse : le Pentagone a signalé qu’il pourrait désigner l’entreprise comme un « risque de chaîne d’approvisionnement » – une étiquette plus souvent associée aux adversaires étrangers – à moins qu’il n’abandonne ses restrictions sur l’utilisation militaire. Une telle désignation pourrait effectivement forcer les entrepreneurs du Pentagone à retirer Claude de travaux sensibles.
Les tensions ont atteint leur paroxysme après le 3 janvier, lorsque les forces d’opérations spéciales américaines ont attaqué le Venezuela et capturé Nicolás Maduro. Le Wall Street Journal a rapporté que les forces ont utilisé Claude pendant l’opération via le partenariat d’Anthropic avec l’entrepreneur de défense Palantir – et Axios a rapporté que l’épisode a intensifié une négociation déjà tendue sur la raison exacte pour laquelle Claude pourrait être utilisé. Lorsqu’un responsable d’Anthropic a contacté Palantir pour lui demander si la technologie avait été utilisée lors du raid, la question a immédiatement déclenché l’alarme au Pentagone. (Anthropic a contesté le fait que cette démarche visait à signifier sa désapprobation à l’égard d’une opération spécifique.) Le secrétaire à la Défense Pete Hegseth est « sur le point » de rompre la relation, a déclaré à Axios un haut responsable de l’administration., ajoutant : « Nous allons faire en sorte qu’ils paient le prix pour nous forcer la main de cette manière. »
La collision soulève une question : une entreprise fondée pour prévenir une catastrophe liée à l’IA peut-elle tenir ses lignes éthiques une fois que ses outils les plus puissants – des agents autonomes capables de traiter de vastes ensembles de données, d’identifier des modèles et d’agir en fonction de leurs conclusions – fonctionnent au sein de réseaux militaires classifiés ? Une IA « la sécurité avant tout » est-elle compatible avec un client qui souhaite des systèmes capables de raisonner, de planifier et d’agir de manière autonome à l’échelle militaire ?
Anthropic a tracé deux lignes rouges : pas de surveillance de masse des Américains et pas d’armes totalement autonomes. Le PDG Dario Amodei a déclaré qu’Anthropic soutiendrait « la défense nationale de toutes les manières, sauf celles qui nous rapprocheraient davantage de nos adversaires autocratiques ». D’autres grands laboratoires – OpenAI, Google et xAI – ont accepté d’assouplir les garanties pour une utilisation dans les systèmes non classifiés du Pentagone, mais leurs outils ne fonctionnent pas encore dans les réseaux classifiés de l’armée. Le Pentagone a exigé que l’IA soit disponible à « toutes fins légales ».
La friction met à l’épreuve la thèse centrale d’Anthropic. L’entreprise a été fondée en 2021 par d’anciens dirigeants d’OpenAI qui pensaient que l’industrie ne prenait pas la sécurité suffisamment au sérieux. Ils ont positionné Claude comme l’alternative éthique. Fin 2024, Anthropic a rendu Claude disponible sur une plateforme Palantir avec un niveau de sécurité cloud allant jusqu’à « secret » – faisant de Claude, selon les comptes publics, le premier grand modèle de langage fonctionnant à l’intérieur de systèmes classifiés.
La question que soulève désormais l’impasse est de savoir si la priorité à la sécurité constitue une identité cohérente une fois qu’une technologie est intégrée dans des opérations militaires classifiées et si des lignes rouges sont réellement possibles. « Ces mots semblent simples : surveillance illégale des Américains », déclare Emelia Probasco, chercheuse principale au Centre pour la sécurité et les technologies émergentes de Georgetown. « Mais au fond, il y a des armées entières d’avocats qui tentent de comprendre comment interpréter cette phrase. »
Considérez le précédent. Après les révélations d’Edward Snowden, le gouvernement américain a défendu la collecte massive de métadonnées téléphoniques (qui a appelé qui, quand et pendant combien de temps) en arguant que ces types de données ne bénéficiaient pas des mêmes protections de confidentialité que le contenu des conversations. Le débat sur la protection de la vie privée concernait alors les analystes humains qui fouillaient ces documents. Imaginez maintenant un système d’IA interrogeant de vastes ensembles de données – cartographiant des réseaux, repérant des modèles, signalant les personnes d’intérêt. Le cadre juridique dont nous disposons a été construit pour une ère d’examen humain et non d’analyse à l’échelle machine.
Et si nous avions la sûreté et la sécurité nationale ?
Emelia Probasco, chercheuse principale au Centre pour la sécurité et les technologies émergentes de Georgetown
« Dans un certain sens, tout type de collecte de données de masse que vous demandez à une IA d’examiner constitue une surveillance de masse par simple définition », déclare Peter Asaro, co-fondateur du Comité international pour le contrôle des armements robotisés. Axios a rapporté que le haut responsable « a fait valoir qu’il existe une zone grise considérable autour des » restrictions d’Anthropic « et qu’il est impossible pour le Pentagone de devoir négocier des cas d’utilisation individuels avec » l’entreprise. Asaro propose deux lectures de cette plainte. L’interprétation généreuse est que la surveillance est véritablement impossible à définir à l’ère de l’IA. Le plus pessimiste, dit Asaro, est qu’« ils veulent vraiment les utiliser pour la surveillance de masse et les armes autonomes et ne veulent pas dire cela, alors ils appellent cela une zone grise ».
L’opération Maduro teste exactement cette distinction. « Si vous collectez des données et des renseignements pour identifier des cibles, mais que les humains décident : ‘D’accord, voici la liste des cibles que nous allons réellement bombarder’, alors vous disposez du niveau de supervision humaine que nous essayons d’exiger », explique Asaro. « D’un autre côté, vous continuez à dépendre de ces IA pour choisir ces cibles, et le degré de contrôle et l’ampleur de l’examen de la validité ou de la légalité de ces cibles sont une question distincte. »
Anthropic essaie peut-être de tracer une frontière plus étroite – entre la planification de mission, où Claude pourrait aider à identifier les cibles de bombardement, et le travail banal de traitement de la documentation. « Il existe toutes sortes d’applications ennuyeuses de grands modèles de langage », explique Probasco.
Mais les capacités des modèles d’Anthropic peuvent rendre ces distinctions difficiles à maintenir. Les équipes d’agents de l’Opus 4.6 peuvent se répartir une tâche complexe et travailler en parallèle – une avancée dans le traitement autonome des données qui pourrait transformer le renseignement militaire. Opus et Sonnet peuvent naviguer dans les applications, remplir des formulaires et travailler sur plusieurs plateformes avec une surveillance minimale. Ces caractéristiques qui déterminent la domination commerciale d’Anthropic sont ce qui rend Claude si attractive au sein d’un réseau de petites annonces. Un modèle doté d’une énorme mémoire de travail peut également contenir un dossier de renseignement complet. Un système capable de coordonner des agents autonomes pour déboguer une base de code peut les coordonner pour cartographier une chaîne d’approvisionnement insurgée. Plus Claude devient compétent, plus la frontière entre le travail analytique qu’Anthropic est prêt à soutenir et la surveillance et le ciblage qu’il s’est engagé à refuser est mince.
À mesure qu’Anthropic repousse les frontières de l’IA autonome, la demande de l’armée pour ces outils ne fera que croître. Probasco craint que l’affrontement avec le Pentagone ne crée une fausse dichotomie entre sûreté et sécurité nationale. « Et si nous avions la sécurité et sécurité nationale ? », s’interroge-t-elle.
Cet article a été publié pour la première fois sur Américain scientifique. © ScientificAmerican.com. Tous droits réservés. Suivez TikTok et Instagram, X et Facebook.

