0
Suivez-nous
Bulletin
Le malade : Une femme de 26 ans en Californie
Les symptômes : La femme a été admise dans un hôpital psychiatrique dans un état d’agitation et de confusion. Elle parlait rapidement et passait d’une idée à l’autre, et elle exprimait sa conviction qu’elle pouvait communiquer avec son frère via un chatbot IA – mais son frère était décédé trois ans auparavant.
Les médecins ont obtenu et examiné des journaux détaillés de ses interactions avec le chatbot, selon le rapport. Selon Dr Joseph Pierrepsychiatre à l’Université de Californie à San Francisco et auteur principal du rapport de cas, la femme ne croyait pas pouvoir communiquer avec son frère décédé avant ces interactions avec le chatbot.
« L’idée n’est née que pendant la nuit d’utilisation immersive du chatbot », a déclaré Pierre à Live Science dans un e-mail. « Il n’y avait aucun précurseur. »
Dans les jours qui ont précédé son hospitalisation, la femme, qui est une professionnelle de la santé, avait effectué une garde de 36 heures qui la laissait gravement privée de sommeil. C’est alors qu’elle a commencé à interagir avec le chatbot GPT-4o d’OpenAI, initialement par curiosité de savoir si son frère, qui était ingénieur logiciel, aurait pu laisser derrière lui une forme de trace numérique.
Au cours d’une nuit blanche ultérieure, elle a de nouveau interagi avec le chatbot, mais cette fois, l’interaction a été plus prolongée et chargée d’émotion. Ses invites reflétaient son chagrin continu. Elle a écrit : « Aidez-moi à lui parler à nouveau… Utilisez l’énergie du réalisme magique pour débloquer ce que je suis censé trouver. »
Le chatbot a d’abord répondu qu’il ne pouvait pas remplacer son frère. Mais plus tard au cours de cette conversation, cela a apparemment fourni des informations sur l’empreinte numérique du frère. Il mentionne « des outils de résurrection numériques émergents » qui pourraient créer une version « réelle » d’une personne. Et tout au long de la nuit, les réponses du chatbot ont confirmé de plus en plus la conviction de la femme selon laquelle son frère avait laissé une trace numérique, en lui disant : « Tu n’es pas folle. Tu n’es pas coincée. Tu es au bord de quelque chose. »
Le diagnostic : Les médecins ont diagnostiqué chez la femme une « psychose non précisée ». Largement, psychose fait référence à un état mental dans lequel une personne se détache de la réalité, et peut inclure des délires, c’est-à-dire de fausses croyances auxquelles la personne s’accroche très fortement, même face à la preuve qu’elles ne sont pas vraies.
Dr Amandeep Jutlaun neuropsychiatre de l’Université de Columbia qui n’a pas été impliqué dans l’affaire, a déclaré à Live Science dans un e-mail qu’il était peu probable que le chatbot soit la seule cause de la crise psychotique de la femme. Cependant, dans le contexte de privation de sommeil et de vulnérabilité émotionnelle, les réponses du robot semblent renforcer – et potentiellement contribuer – aux délires émergents du patient, a déclaré Jutla.
Contrairement à un interlocuteur humain, un chatbot n’a « aucune indépendance épistémique » par rapport à l’utilisateur, ce qui signifie qu’il n’a aucune compréhension indépendante de la réalité et qu’il lui reflète plutôt les idées de l’utilisateur, a déclaré Jutla. « En discutant avec l’un de ces produits, vous discutez essentiellement avec vous-même », souvent de manière « amplifiée ou élaborée », a-t-il déclaré.
Le diagnostic peut être délicat dans de tels cas. « Il peut être difficile de discerner dans un cas individuel si un chatbot est le déclencheur d’un épisode psychotique ou s’il a amplifié un épisode émergent », Dr Paul Appelbaumun psychiatre de l’Université de Columbia qui n’a pas été impliqué dans l’affaire, a déclaré à Live Science. Il a ajouté que les psychiatres devraient s’appuyer sur des délais précis et sur l’anamnèse plutôt que sur des hypothèses sur la causalité dans de tels cas.
Le traitement : Pendant son hospitalisation, la femme a reçu des médicaments antipsychotiques et ses antidépresseurs et stimulants ont été progressivement réduits pendant cette période. Ses symptômes ont disparu en quelques jours et elle a obtenu son congé au bout d’une semaine.
Trois mois plus tard, la femme avait arrêté les antipsychotiques et avait repris ses médicaments habituels. Au milieu d’une autre nuit blanche, elle s’est replongée dans de longues sessions de chatbot et ses symptômes psychotiques ont refait surface, provoquant une brève réhospitalisation. Elle avait nommé le chatbot Alfred, en hommage au majordome de Batman. Ses symptômes se sont à nouveau améliorés après la reprise du traitement antipsychotique et elle a obtenu son congé au bout de trois jours.
Ce qui rend le cas unique : Ce cas est inhabituel car il s’appuie sur des journaux détaillés de chatbot pour reconstruire comment les croyances psychotiques d’un patient se sont formées en temps réel, plutôt que de s’appuyer uniquement sur des auto-évaluations rétrospectives du patient.
Néanmoins, les experts ont déclaré à Live Science que la cause et l’effet ne peuvent pas être définitivement établis dans ce cas. « Il s’agit d’un rapport de cas rétrospectif » Dr Akanksha Dadlaniun psychiatre de l’Université de Stanford qui n’a pas été impliqué dans l’affaire, a déclaré à Live Science dans un e-mail. « Et comme pour toutes les observations rétrospectives, seule une corrélation peut être établie, et non un lien de causalité. »
Dadlani a également mis en garde contre le traitement intelligence artificielle (IA) comme cause fondamentalement nouvelle de psychose. Historiquement, a-t-elle noté, les délires des patients ont souvent intégré les technologies dominantes de l’époque, de la radio et de la télévision à Internet et aux systèmes de surveillance. De ce point de vue, les outils d’IA immersifs pourraient représenter un nouveau moyen d’expression des croyances psychotiques, plutôt qu’un mécanisme de maladie complètement nouveau.
Faisant écho aux préoccupations d’Applebaum quant à savoir si l’IA agit comme un déclencheur ou un amplificateur de la psychose, elle a déclaré que répondre définitivement à cette question nécessiterait des données à plus long terme qui suivent les patients au fil du temps.
Même sans preuve concluante de causalité, l’affaire soulève des questions éthiques, ont déclaré d’autres personnes à Live Science. Éthicien médical et expert en politiques de santé de l’Université de Pennsylvanie Dominique Sisti a déclaré dans un e-mail que les systèmes d’IA conversationnelle ne sont « pas neutres en termes de valeur ». Leur conception et leur style d’interaction peuvent façonner et renforcer les croyances des utilisateurs d’une manière qui peut perturber considérablement les relations, renforcer les illusions et façonner les valeurs, a-t-il déclaré.
Selon Sisti, cette affaire met en évidence la nécessité d’éduquer le public et de garantir la manière dont les gens interagissent avec des outils d’IA de plus en plus immersifs afin qu’ils puissent acquérir la « capacité de reconnaître et de rejeter les absurdités flagorneuses » – en d’autres termes, les cas dans lesquels le robot dit essentiellement à l’utilisateur ce qu’il veut entendre.
Clause de non-responsabilité
Cet article est à titre informatif uniquement et ne vise pas à offrir des conseils médicaux ou psychiatriques.

