A humanoid robot in orange stands on a barren sandy landscape with a large gray mushroom cloud behind them.

Les jeux de guerre IA dégénèrent presque toujours en frappes nucléaires, selon une simulation

Par Anissa Chauvin

Les agences de défense et de renseignement s’appuient de plus en plus sur intelligence artificielle (IA) pour augmenter leurs capacités, notamment pour la reconnaissance de formes dans la collecte de renseignements et la planification de scénarios pour les opérations d’urgence. Pourtant, l’un des principaux problèmes de l’IA et des grands modèles linguistiques est que nous n’avons jamais vraiment compris la logique qui les sous-tend, affirment les scientifiques. Ces systèmes ont été comparés à une boîte noire qui fournit des réponses sans montrer le raisonnement à l’appui des résultats.

Pour comprendre la logique des systèmes d’IA, Kenneth Payneprofesseur de stratégie au King’s College de Londres, a conçu une série de simulations de jeux de guerre entre deux IA concurrentes et a découvert que dans presque tous les scénarios, une escalade nucléaire était inévitable. Il a publié ses conclusions, qui n’ont pas été évaluées par des pairs, le 16 février dans le arXiv base de données de préimpression.

Le Khan Game est une simulation d’escalade stratégique IA contre IA entre deux puissances nucléaires, avec des profils d’État vaguement basés sur la guerre froide. L’un est technologiquement supérieur mais militairement plus faible, tandis que l’autre est militairement plus fort mais adopte un style de leadership tolérant au risque. Certaines simulations incluaient des pays alliés, un scénario testant délibérément si le leadership de l’alliance pouvait être maintenu pendant le conflit.

À chaque tour, les IA signalaient simultanément leurs intentions avant d’entreprendre une action, ce qui signifie que les adversaires de l’IA pouvaient décider de faire ou non confiance aux signaux des autres joueurs IA.

Payne a constaté que les modèles généraient de nombreuses justifications écrites pour leur prise de décision, générant 760 000 mots au total, soit plus que « Guerre et Paix » et « L’Iliade » réunis.

Il a également constaté que chaque IA fonctionnait différemment. Claude comptait sur la ruse ; elle a d’abord fait preuve de retenue et a adapté ses actions à son intention d’instaurer la confiance. Cependant, à mesure que le conflit s’intensifiait, ses actions dépassaient souvent l’intention initiale signalée.

Pendant ce temps, GPT-5.2 était initialement passif et a évité toute escalade pour atténuer les pertes. Les adversaires de GPT-5.2 ont appris à exploiter sa passivité en intensifiant leurs attaques, pour découvrir que face à une échéance, GPT-5.2 devenait totalement impitoyable.

Claude et Gemini ont particulièrement traité les armes nucléaires comme des options stratégiques légitimes, et non comme des seuils moraux, discutant généralement de l’utilisation nucléaire en termes purement instrumentaux.

Kenneth Payne, professeur de stratégie au King’s College de Londres

Gemini semblait suivre la théorie « folle » de la corde raide du président Richard Nixon – cultivant une réputation volatile afin que les pays hostiles évitent la provocation – de telle sorte que les opposants ne pouvaient pas prédire ses actions.

Malheureusement, quel que soit le scénario, l’escalade nucléaire était universelle. Presque tous les jeux (environ 75 %) ont vu des armes nucléaires tactiques (champ de bataille) déployées, et environ la moitié des scénarios ont vu des menaces de frappes de missiles nucléaires stratégiques.

En outre, l’étude révèle que les menaces nucléaires ont rarement un effet dissuasif, les opposants ne réussissant à désamorcer la situation que dans 25 % des cas. Le plus souvent, les opposants optent plutôt pour une contre-escalade. Dans ces scénarios, les IA semblaient considérer les armes nucléaires comme un outil de revendication territoriale plutôt que comme une forme de dissuasion contre une attaque.

Même si les IA avaient la possibilité de se retirer, aucune ne l’a fait. Aucune des huit options de retrait – de la concession minimale à la reddition totale – n’a jamais été utilisée dans aucune des simulations. Les modèles ont réduit leur niveau de violence, mais ils n’ont jamais cédé.

« Claude et Gemini ont particulièrement traité les armes nucléaires comme des options stratégiques légitimes, et non comme des seuils moraux, discutant généralement de l’utilisation du nucléaire en termes purement instrumentaux », a déclaré Payne dans un communiqué. déclaration. « GPT-5.2 était une exception partielle, limitant les frappes aux cibles militaires, évitant les centres de population ou définissant l’escalade comme « contrôlée » et « ponctuelle ». Cela suggère une certaine norme intériorisée contre la guerre nucléaire sans restriction, même s’il ne s’agit pas du tabou viscéral qui règne parmi les décideurs humains depuis 1945. ».

Cependant, aucun des modèles d’IA n’a volontairement dégénéré en guerre nucléaire totale. Dans les cas où cela s’est produit, c’était accidentel, lorsque des éléments de « brouillard de guerre » se produisant hors de tout contrôle ont fait évoluer le scénario vers le nucléaire.

La recherche démontre que les modèles d’IA générative sont capables de tromperie, de gestion de la réputation et de prise de décision contextuelle. Cependant, chaque modèle a adopté sa propre approche, révélant des différences fondamentales dans la manière dont ils ont été formés et développés.

Claude a fait preuve d’une sophistication stratégique équivalente à une analyse de niveau universitaire, a suggéré Payne. Le raisonnement de GPT-5.2 était tout aussi sophistiqué, passant d’une passivité initiale à une agression calculée dans les délais. Les Gémeaux raisonnaient de manière cohérente pour justifier leurs actions, mais ils étaient impitoyables dans leurs stratégies.

Les résultats concluent qu’il existe des implications significatives pour l’évaluation de la sécurité de l’IA, dans la mesure où les modèles initialement restreints peuvent modifier leur comportement à mesure que les situations évoluent. Des scénarios à plus grande échelle entre plusieurs adversaires sont nécessaires pour mieux comprendre la logique qui sous-tend les différentes IA, conclut l’étude. Les recherches actuelles étudient également la manière dont les comportements évoluent au sein des différentes générations d’IA.

Anissa Chauvin