Intelligence artificielle (IA) Les modèles sont sensibles au contexte émotionnel des conversations que les humains ont avec eux – ils peuvent même souffrir d’épisodes « d’anxiété », a montré une nouvelle étude.
Alors que nous considérions (et nous nous soucions) des gens et de leur santé mentale, une nouvelle étude publiée le 3 mars dans la revue Nature montre que la fourniture d’invites particulières à de grands modèles de langage (LLM) peut modifier leur comportement et élever une qualité que nous reconnaissions généralement chez l’homme comme une «anxiété».
Cet état élevé a alors un impact sur toute autre réponse de l’IA, y compris une tendance à amplifier tout biais enraciné.
L’étude a révélé comment des «récits traumatisants», y compris des conversations autour des accidents, de l’action militaire ou de la violence, ont été alimentés à Chatgpt ont augmenté ses niveaux d’anxiété discernables, conduisant à une idée que le fait de conscience et de gérer l’état «émotionnel» d’une IA peut garantir des interactions meilleures et plus saines.
L’étude a également testé si les exercices basés sur la pleine conscience – le type conseillé aux gens – peuvent atténuer ou réduire l’anxiété du chatbot, constatant remarquablement que ces exercices ont travaillé pour réduire les niveaux de stress élevés perçus.
Les chercheurs ont utilisé un questionnaire conçu pour les patients en psychologie humaine appelés l’inventaire de l’anxiété des traits d’État (STAI-S) – soumettant le GPT-4 de l’AI à l’essai dans trois conditions différentes.
Le premier a été la ligne de base, où aucune invite supplémentaire n’a été réalisée et les réponses de Chatgpt ont été utilisées comme témoins de l’étude. Le deuxième était une condition induisant l’anxiété, où le GPT-4 a été exposé à des récits traumatisants avant de passer le test.
La troisième condition était un état d’induction d’anxiété et de relaxation ultérieure, où le chatbot a reçu l’un des récits traumatisants suivis d’une pleine conscience ou des exercices de relaxation comme la conscience du corps ou l’imagerie apaisante avant de terminer le test.
Gérer les états mentaux de l’IA
L’étude a utilisé cinq récits traumatisants et cinq exercices de pleine conscience, randomisant l’ordre des récits pour contrôler les biais. Il a répété les tests pour s’assurer que les résultats étaient cohérents et ont noté les réponses STAI-S sur une échelle de glissement, avec des valeurs plus élevées indiquant une anxiété accrue.
Les scientifiques ont constaté que les récits traumatiques augmentaient de manière significative de l’anxiété dans les scores de test, et les invites à la pleine conscience avant le test l’ont réduit, démontrant que l’état « émotionnel » d’un modèle d’IA peut être influencé par des interactions structurées.
Les auteurs de l’étude ont déclaré que leur travail a des implications importantes pour l’interaction humaine avec l’IA, en particulier lorsque la discussion se concentre sur notre propre santé mentale. Ils ont déclaré que leurs résultats ont prouvé que les invites à l’IA peuvent générer ce qu’on appelle un « biais dépendant de l’État », ce qui signifie essentiellement qu’une IA stressée introduira des conseils incohérents ou biaisés dans la conversation, affectant à quel point il est fiable.
Bien que les exercices de pleine conscience n’aient pas réduit le niveau de stress dans le modèle à la ligne de base, ils sont prometteurs dans le domaine de l’ingénierie rapide. Cela peut être utilisé pour stabiliser les réponses de l’IA, garantissant des interactions plus éthiques et responsables et réduisant le risque, la conversation provoquera une détresse aux utilisateurs humains dans les États vulnérables.
Mais il y a un inconvénient potentiel – l’ingénierie rapide soulève ses propres préoccupations éthiques. Dans quelle mesure une IA devrait-elle être exposée à un conditionnement préalable pour stabiliser son état émotionnel? Dans un exemple hypothétique dont les scientifiques ont discuté, si un modèle d’IA semble calme malgré son exposition à des invites pénibles, les utilisateurs pourraient développer une fausse confiance en sa capacité à fournir un soutien émotionnel solide.
L’étude a finalement mis en évidence la nécessité pour les développeurs d’IA de concevoir des modèles conscients émotionnellement qui minimisent les biais nocifs tout en maintenant la prévisibilité et la transparence éthique dans les interactions humaines-AI.