Il ne faut pas faire confiance aveuglément à ChatGPT, surtout lorsqu’il s’agit de conseils de santé. Un homme de 60 ans l’a appris à ses dépens, comme le rapporte une étude de cas publiée dans la revue médicale américaine Annals of Internal Medicine.
Le patient s'est présenté aux urgences en soupçonnant que son voisin l'avait empoisonné. Cette idée lui est venue en raison de changements cutanés, de douleurs musculaires et de paranoïa. Il a indiqué ne prendre ni médicaments ni compléments alimentaires et n’avoir aucun antécédent médical ou psychiatrique notable.
Ses constantes vitales étaient normales, et les tests de dépistage de drogues et d’alcool négatifs. Seuls les résultats sanguins étaient anormaux. En plus d’une carence en divers oligo-éléments, il présentait une concentration élevée de chlorures, de faibles taux de phosphates, des valeurs élevées de bicarbonates et un déséquilibre acido-basique.
Les médecins ont suspecté une intoxication au brome. Pendant les examens, l’homme a expliqué qu’il suivait un régime strict et distillait lui-même son eau. Il avait très soif, mais se méfiait de l’eau qu’on lui proposait. Au cours des 24 premières heures de son hospitalisation, il a montré une paranoïa accrue ainsi que des hallucinations auditives et visuelles. Après une tentative de fuite, il a été immobilisé de force et traité avec de la rispéridone, un neuroleptique utilisé notamment pour traiter la schizophrénie.
Lorsque le patient a retrouvé son calme et sa lucidité, toute l’histoire est ressortie: il avait entendu dire que le sel de table (chlorure de sodium) était mauvais pour la santé. Dans ses recherches, il avait lu que la seule solution était de supprimer complètement le sel, ce qui l’avait surpris et motivé à trouver une alternative.
Inspiré par ses études universitaires en nutrition, il a décidé de tenter une expérience personnelle: pendant trois mois, il a remplacé le chlorure de sodium par du bromure de sodium. C’est ChatGPT qui lui aurait suggéré cette substitution, affirmant que l’on pouvait remplacer le chlorure par le bromure. Les auteurs de l’étude supposent que l’homme avait utilisé une version plus ancienne de l’intelligence artificielle et posé sa question de façon très générale, ce qui aurait conduit à une réponse issue d’un autre contexte, par exemple, le nettoyage. Parce que le bromure est toxique.
Au début du 20ᵉ siècle, le bromisme (intoxication au brome) était plus courant. Cette substance, d’apparence proche du sel, était présente dans de nombreux médicaments en vente libre, notamment contre l’insomnie, l’hystérie ou l’anxiété.
À l’époque, 8% des admissions psychiatriques étaient liées au bromisme. Entre 1975 et 1989, la U.S. Food and Drug Administration a limité l’usage du bromure, entraînant une baisse des cas. Mais on observe encore aujourd’hui des intoxications isolées, dues à des compléments alimentaires contenant du brome, à certains sédatifs ou au dextrométhorphane, utilisé pour soigner la toux.
Les auteurs de l’étude concluent en soulignant qu'il ne faut pas sous-estimer les désinformations issues de programmes d'IA comme ChatGPT. Bien que ces outils puissent faire le lien entre la science et le grand public, ils comportent aussi des risques. Contrairement à un professionnel de santé, ChatGPT ne demande pas si l’on veut utiliser le bromure pour nettoyer ou pour assaisonner ses aliments, ce qui peut faire toute la différence.
Traduit de l'allemand par Anne Castella