Société
chatgpt

Il suit les conseils de ChatGPT et finit à l'hôpital

Salz shuttestock salzstreuer
Le sel de cuisine peut être néfaste si consommé en grande quantité, mais le bromure de sodium est toxique.Image: Shutterstock

Un homme s'empoisonne à cause d’un conseil de ChatGPT

L’intelligence artificielle peut nous rendre service, mais elle comporte aussi des dangers. Ce qu’il ne faut jamais faire, c’est confondre ChatGPT avec un professionnel de santé. Un homme en a fait l'amère expérience.
14.08.2025, 16:5714.08.2025, 16:57
Lisa Kwasny / ch media
Plus de «Société»

Il ne faut pas faire confiance aveuglément à ChatGPT, surtout lorsqu’il s’agit de conseils de santé. Un homme de 60 ans l’a appris à ses dépens, comme le rapporte une étude de cas publiée dans la revue médicale américaine Annals of Internal Medicine.

Le patient s'est présenté aux urgences en soupçonnant que son voisin l'avait empoisonné. Cette idée lui est venue en raison de changements cutanés, de douleurs musculaires et de paranoïa. Il a indiqué ne prendre ni médicaments ni compléments alimentaires et n’avoir aucun antécédent médical ou psychiatrique notable.

Les médecins ont trouvé la réponse dans le sang

Ses constantes vitales étaient normales, et les tests de dépistage de drogues et d’alcool négatifs. Seuls les résultats sanguins étaient anormaux. En plus d’une carence en divers oligo-éléments, il présentait une concentration élevée de chlorures, de faibles taux de phosphates, des valeurs élevées de bicarbonates et un déséquilibre acido-basique.

Les médecins ont suspecté une intoxication au brome. Pendant les examens, l’homme a expliqué qu’il suivait un régime strict et distillait lui-même son eau. Il avait très soif, mais se méfiait de l’eau qu’on lui proposait. Au cours des 24 premières heures de son hospitalisation, il a montré une paranoïa accrue ainsi que des hallucinations auditives et visuelles. Après une tentative de fuite, il a été immobilisé de force et traité avec de la rispéridone, un neuroleptique utilisé notamment pour traiter la schizophrénie.

Les intoxications au brome plus rares qu'autrefois

Lorsque le patient a retrouvé son calme et sa lucidité, toute l’histoire est ressortie: il avait entendu dire que le sel de table (chlorure de sodium) était mauvais pour la santé. Dans ses recherches, il avait lu que la seule solution était de supprimer complètement le sel, ce qui l’avait surpris et motivé à trouver une alternative.

Inspiré par ses études universitaires en nutrition, il a décidé de tenter une expérience personnelle: pendant trois mois, il a remplacé le chlorure de sodium par du bromure de sodium. C’est ChatGPT qui lui aurait suggéré cette substitution, affirmant que l’on pouvait remplacer le chlorure par le bromure. Les auteurs de l’étude supposent que l’homme avait utilisé une version plus ancienne de l’intelligence artificielle et posé sa question de façon très générale, ce qui aurait conduit à une réponse issue d’un autre contexte, par exemple, le nettoyage. Parce que le bromure est toxique.

Au début du 20ᵉ siècle, le bromisme (intoxication au brome) était plus courant. Cette substance, d’apparence proche du sel, était présente dans de nombreux médicaments en vente libre, notamment contre l’insomnie, l’hystérie ou l’anxiété.

Encore des cas isolés de bromisme

À l’époque, 8% des admissions psychiatriques étaient liées au bromisme. Entre 1975 et 1989, la U.S. Food and Drug Administration a limité l’usage du bromure, entraînant une baisse des cas. Mais on observe encore aujourd’hui des intoxications isolées, dues à des compléments alimentaires contenant du brome, à certains sédatifs ou au dextrométhorphane, utilisé pour soigner la toux.

Composition of medicine bottle on white background in pharmacy
Certains médicaments ressemblent à du sel, mais ne doivent en aucun cas être utilisés pour le remplacer.Image: imago

Les auteurs de l’étude concluent en soulignant qu'il ne faut pas sous-estimer les désinformations issues de programmes d'IA comme ChatGPT. Bien que ces outils puissent faire le lien entre la science et le grand public, ils comportent aussi des risques. Contrairement à un professionnel de santé, ChatGPT ne demande pas si l’on veut utiliser le bromure pour nettoyer ou pour assaisonner ses aliments, ce qui peut faire toute la différence.

Traduit de l'allemand par Anne Castella

Parce qu'elle est partout, voici des images générées par IA
1 / 12
Parce qu'elle est partout, voici des images générées par IA
Un Trump généré par l'IA, en pleine séance d'Ayahuasca dans la jungle.
source: reddit
partager sur Facebookpartager sur X
ChatGPT: Quand la réalité dépasse la fiction
Video: watson
Ceci pourrait également vous intéresser:
0 Commentaires
Votre commentaire
YouTube Link
0 / 600
Jackie Chan peut-il encore se battre? Il répond
A 71 ans, la mégastar du film d'arts martiaux comique a enchanté le public du Festival du film de Locarno avec des anecdotes un peu chaotiques et touchantes de sa vie.
Il bondit, se met à genoux, imite avec ses bras et ses mains un serpent, un serpent dressé, gueule ouverte. Puis la langue jaillit, et il répète tout cela à une vitesse fulgurante. C’est spectaculaire. Jackie Chan a 71 ans et, selon ses propres dires, il s’est déjà brisé deux fois tous les os de son corps - ce qui ne lui enlève en rien sa souplesse légendaire.
L’article