OpenAI a lancé ChatGpt Agent, une mise à niveau de son modèle phare de l’intelligence artificielle (AI) qui lui donne un ordinateur virtuel et une boîte à outils intégrée.
Ces nouveaux outils permettent à l’agent d’effectuer des tâches complexes et en plusieurs étapes que les itérations précédentes de Chatgpt étaient incapables – contrôler votre ordinateur et accomplir des tâches pour vous.
Cette version plus puissante, qui dépend toujours fortement de la contribution et de la supervision humaines, est arrivée peu de temps avant que Mark Zuckerberg n’annonce que les méta chercheurs avaient observé leurs propres modèles d’IA montrant Signes d’auto-amélioration indépendante. Il a également été lancé peu de temps avant le lancement d’OpenI GPT-5 – la dernière version de Chatbot d’Openai.
Avec l’agent de ChatGpt, les utilisateurs peuvent désormais demander au modèle grand langage (LLM) non seulement pour effectuer une analyse ou recueillir des données, mais aussi pour agir sur ces données, a déclaré des représentants OpenAI dans un déclaration.
Par exemple, vous pouvez ordonner à l’agent d’évaluer votre calendrier et de vous informer sur les événements et les rappels à venir, ou pour étudier un corpus de données et les résumer dans un synopsis condamné ou comme pont de diapositives. Bien qu’un LLM traditionnel puisse rechercher et fournir des recettes pour un petit-déjeuner de style japonais, l’agent Chatgpt pourrait planifier et acheter des ingrédients pour le même petit déjeuner pour un nombre spécifique d’invités.
Pourtant, le nouveau modèle, bien que très capable, fait toujours face à un certain nombre de limitations. Comme tous les modèles d’IA, son raisonnement spatial est faible, il se débat donc avec des tâches comme la planification des voies physiques. Il manque également de la vraie mémoire persistante, de traitement des informations dans le moment sans rappel fiable ou la capacité de référencer les interactions précédentes au-delà du contexte immédiat.
L’agent Chatgpt montre cependant des améliorations significatives dans l’analyse comparative d’Openai. Sur Le dernier examen de l’humanitéune référence AI qui évalue la capacité d’un modèle à répondre aux questions au niveau des experts dans un certain nombre de disciplines, elle a plus que doublé le pourcentage de précision (41,6%) par rapport à OpenAI O3 sans outils équipés (20,3%).
Il a également fonctionné beaucoup mieux que les autres outils OpenAI, ainsi qu’une version d’elle-même qui manquait d’outils comme un navigateur et un ordinateur virtuel. Dans la référence mathématique la plus dure connue au monde, FrontitierArt, l’agent Chatgpt et son complément d’outils ont à nouveau surperformé les modèles précédents par une large marge.
L’agent est construit sur trois piliers dérivés des produits OpenAI précédents. Une jambe est «opérateur», un agent qui utiliserait son propre navigateur virtuel pour plomber le Web pour les utilisateurs. La seconde est la «recherche profonde», construite pour traverser et synthétiser de grandes quantités de données. La dernière pièce du puzzle est des versions précédentes de Chatgpt lui-même, qui excellait dans la maîtrise et la présentation conversationnelles.
« En substance, il peut parcourir de manière autonome le Web, générer du code, créer des fichiers, etc., le tout sous la supervision humaine », a déclaré Kofi Nyarkoprofesseur à Morgan State University et directeur du laboratoire de recherche sur les données de l’ingénierie et de l’analyse prédictive (DEPA).
Nyarko a rapidement souligné, cependant, que le nouvel agent n’est toujours pas autonome. « Les hallucinations, la fragilité de l’interface utilisateur ou la mauvaise interprétation peuvent entraîner des erreurs. Des garanties intégrées, comme les invites d’autorisation et l’interruptibilité, sont essentielles mais pas suffisantes pour éliminer complètement les risques. »
Le danger de faire avancer l’IA
Openai a lui-même reconnu le danger du nouvel agent et de son autonomie accrue. Les représentants de l’entreprise ont déclaré que l’agent de Chatgpt avait des «capacités biologiques et chimiques élevées», qui, selon eux, lui permettent potentiellement d’aider à la création d’armes chimiques ou biologiques.
Par rapport aux ressources existantes, comme un laboratoire Chem et un manuel, un agent d’IA représente ce que les experts en biosécurité appellent une «voie d’escalade des capacités». L’IA peut s’appuyer sur d’innombrables ressources et synthétiser les données instantanément, fusionner les connaissances dans les disciplines scientifiques, fournir un dépannage itératif comme un mentor expert, naviguer sur des sites Web des fournisseurs, remplir des formulaires de commande et même aider à contourner les vérifications de base.
Avec son ordinateur virtuel, l’agent peut également interagir de manière autonome avec les fichiers, les sites Web et les outils en ligne de manière à lui permettre de faire beaucoup plus de dommages potentiels s’ils sont mal utilisés. La possibilité de violations de données ou de manipulation de données, ainsi que pour un comportement mal aligné comme la fraude financière, est amplifiée en cas de Attaque d’injection rapide ou le détournement.
Comme Nyarko l’a souligné, ces risques s’ajoutent à ceux qui sont implicites dans les modèles d’IA traditionnels et les LLM.
« Il existe des préoccupations plus larges pour les agents de l’IA dans son ensemble, comme la façon dont les agents fonctionnant de manière autonome peuvent amplifier les erreurs, introduire des biais à partir de données publiques, compliquer les cadres de responsabilité et favoriser involontairement la dépendance psychologique », a-t-il déclaré.
En réponse aux nouvelles menaces qu’un modèle plus agentien pose, les ingénieurs OpenAI ont également renforcé un certain nombre de garanties, ont déclaré des représentants de l’entreprise dans le communiqué.
Il s’agit notamment de la modélisation des menaces, de la formation à double usage – où un modèle apprend à refuser les demandes nocives concernant les données qui pourraient avoir une utilisation bénéfique ou malveillante – des programmes de primes de bug et une équipe rouge experte – analysant les faiblesses en attaquant le système vous-même – axé sur les biodefenses. Cependant, un Évaluation de la gestion des risques Dirigé en juillet 2025 par Saferai, un organisme sans but lucratif axé sur la sécurité, appelé les politiques de gestion des risques d’Openai faibles, leur accordant un score de 33% sur 100% possible. Openai n’a également marqué qu’une note C sur le Indice de sécurité de l’IA Compilé par le Future of Life Institute, une principale entreprise de sécurité de l’IA.

