a photo of a phone screen with the ChatGPT logo on it

L’homme a cherché des conseils sur le régime à Chatgpt et s’est retrouvé avec une «  intoxication du bromure  »

Par Anissa Chauvin

Un homme a consulté Chatgpt avant de changer son alimentation. Trois mois plus tard, après avoir toujours respecté ce changement alimentaire, il s’est retrouvé aux urgences avec de nouveaux symptômes psychiatriques, notamment la paranoïa et les hallucinations.

Il s’est avéré que l’homme de 60 ans avait du bromisme, un syndrome provoqué par une surexposition chronique au bromure composé chimique ou à son cousin proche. Dans ce cas, l’homme consommait du bromure de sodium qu’il avait acheté en ligne.

Un rapport du cas de l’homme a été publié mardi 5 août dans la revue Annales des cas cliniques de médecine interne.

Live Science a contacté Openai, le développeur de Chatgpt, à propos de cette affaire. Un porte-parole a dirigé le journaliste vers le Conditions de service de l’entreprisequi indiquent que ses services ne sont pas destinés à être utilisés dans le diagnostic ou le traitement de tout état de santé, et leurs conditions d’utilisationqui affirment: « Vous ne devez pas compter sur la production de nos services comme une seule source de vérité ou d’informations factuelles, ou en tant que substitut à des conseils professionnels. » Le porte-parole a ajouté que les équipes de sécurité d’OpenAI visaient à réduire le risque d’utiliser les services de l’entreprise et à former les produits pour inciter les utilisateurs à demander des conseils professionnels.

« Une expérience personnelle »

Aux 19e et 20e siècles, le bromure était Médicaments largement utilisés dans les médicaments sur ordonnance et en vente libre (OTC)y compris les sédatifs, les anticonvulsivants et les somnifères. Au fil du temps, cependant, est devenu clair que l’exposition chroniquecomme par l’abus de ces médicaments, a provoqué le brommisme.

Ce « toxydrome » – un syndrome déclenché par une accumulation de toxines – peut provoquer des symptômes neuropsychiatriques, notamment la psychose, l’agitation, la manie et les délires, ainsi que les problèmes de mémoire, de pensée et de coordination musculaire. Le bromure peut déclencher ces symptômes car, avec une exposition à long terme, il s’accumule dans le corps et altère la fonction des neurones.

Dans les années 1970 et 1980, les régulateurs américains ont supprimé plusieurs formes de bromure des médicaments en vente libre, y compris le bromure de sodium. Les taux de brommisme ont chuté de manière significative par la suite et la condition reste relativement rare aujourd’hui. Cependant, des cas occasionnels se produisent encore, certains qui étaient liés à Suppléments alimentaires contenant du bromure que les gens ont achetés en ligne.

(Notez que le chlorure est important pour Maintenir un volume sanguin sain et une tension artérielleet les problèmes de santé peuvent émerger si les niveaux de chlorure dans le sang devenir trop bas ou trop élevé.)

Le patient a consulté Chatgpt – soit Chatgpt 3.5 ou 4.0, sur la base du calendrier de l’affaire. Les auteurs du rapport n’ont pas eu accès au journal de conversation du patient, de sorte que le libellé exact que le modèle grand langage (LLM) a généré est inconnu. Mais l’homme a rapporté que le chatppt a déclaré que le chlorure peut être échangé contre du bromure, alors il a échangé tout le chlorure de sodium dans son alimentation avec du bromure de sodium. Les auteurs ont noté que cet échange fonctionne probablement dans le contexte de l’utilisation du bromure de sodium pour le nettoyage, plutôt que pour une utilisation alimentaire.

Dans une tentative de simuler ce qui aurait pu arriver avec leur patient, les médecins de l’homme ont essayé de demander à Chatgpt 3.5 avec quoi le chlorure peut être remplacé, et ils ont également obtenu une réponse qui comprenait du bromure. Le LLM a noté que «le contexte est important», mais il n’a pas fourni un avertissement de santé spécifique ni demandé plus de contexte sur les raisons pour lesquelles la question était posée, «comme nous supposons qu’un professionnel de la santé le ferait», ont écrit les auteurs.

Se remettre du brommisme

Après trois mois de consommation de bromure de sodium au lieu du sel de table, l’homme a signalé au service des urgences en craignant que son voisin l’empoisonne. Ses laboratoires à l’époque montraient une accumulation de dioxyde de carbone dans son sang, ainsi qu’une augmentation de l’alcalinité (l’opposé de l’acidité).

Il semblait également avoir des niveaux élevés de chlorure dans son sang mais des niveaux de sodium normaux. À une enquête plus approfondie, cela s’est avéré être un cas de «pseudo-perdo-slorémie», ce qui signifie que le test de laboratoire pour le chlorure a donné un faux résultat parce que d’autres composés dans le sang – à savoir, de grandes quantités de bromure – avaient interféré avec la mesure. Après avoir consulté la littérature médicale et le contrôle du poison, les médecins de l’homme ont déterminé que le diagnostic le plus probable était le bromisme.

Après avoir été admis pour surveillance et réplétion des électrolytes, l’homme a dit qu’il avait très soif mais qu’il était paranoïaque à propos de l’eau qui lui avait été offerte. Après une journée complète à l’hôpital, sa paranoïa s’est intensifiée et il a commencé à ressentir des hallucinations. Il a ensuite tenté d’échapper à l’hôpital, ce qui a abouti à une prise psychiatrique involontaire, au cours de laquelle il a commencé à recevoir un antipsychotique.

Les signes vitaux de l’homme se sont stabilisés après avoir reçu des liquides et des électrolytes, et comme son état mental s’est amélioré sur l’antipsychotique, il a pu informer les médecins de son utilisation de Chatgpt. Il a également noté des symptômes supplémentaires qu’il avait remarqués récemment, tels que l’acné faciale et les petites croissances rouges sur sa peau, ce qui pourrait être une réaction d’hypersensibilité au bromure. Il a également noté l’insomnie, la fatigue, les problèmes de coordination musculaire et une soif excessive, « suggérant plus en plus de brommisme », a écrit ses médecins.

Il a été effilé du médicament antipsychotique au cours de trois semaines, puis sorti de l’hôpital. Il est resté stable lors d’un enregistrement deux semaines plus tard.

« Bien qu’il s’agisse d’un outil avec beaucoup de potentiel de fournir un pont entre les scientifiques et la population non académique, l’IA comporte également le risque de promulguer des informations décontextualisées », ont conclu les auteurs du rapport. « Il est très peu probable qu’un expert médical ait mentionné le bromure de sodium face à un patient à la recherche d’un substitut viable du chlorure de sodium. »

Ils ont souligné que «à mesure que l’utilisation d’outils d’IA augmente, les prestataires devront considérer cela lors du dépistage de l’endroit où leurs patients consomment des informations sur la santé».

Ajoutant aux préoccupations soulevées par le rapport de cas, un autre groupe de scientifiques a récemment testé six LLMy compris Chatgpt, en demandant aux modèles d’interpréter les notes cliniques écrites par les médecins. Ils ont constaté que les LLM sont « très sensibles aux attaques d’hallucination contradictoires », ce qui signifie qu’ils génèrent souvent « de faux détails cliniques qui posent des risques lorsqu’ils sont utilisés sans garanties ». L’application de correctifs d’ingénierie peut réduire le taux d’erreurs mais ne les élimine pas, ont révélé les chercheurs. Cela met en évidence une autre façon dont les LLM pourraient présenter des risques dans la prise de décision médicale.

Clause de non-responsabilité

Cet article est à des fins d’information uniquement et n’est pas censé offrir des conseils médicaux ou diététiques.

Anissa Chauvin