ChatGPT sollte man nicht blind vertrauen, schon gar nicht, wenn es um Gesundheitstipps geht. Das musste ein 60-jähriger Mann auf die harte Tour lernen, wie eine Fallschilderung in der US-amerikanischen Fachzeitschrift «Annals of Internal Medicine» zeigt.
Der Patient tauchte auf einer lokalen Notfallstation auf und äusserte den Verdacht, dass sein Nachbar ihn vergiftet haben könnte. Darauf kam er, weil er unter anderem Hautveränderungen, Muskelbeschwerden und Paranoia hatte. Er gab an, weder Medikamente noch Supplemente zu nehmen. Ebenso wenig hatte er eine auffällige medizinische oder psychiatrische Vorgeschichte.
Seine Vitalwerte waren in Ordnung, der Drogen- und Alkoholtest negativ. Einzig die Laborwerte seines Bluts waren auffällig. Neben einem Mangel an verschiedenen Spurenelementen hatte er eine erhöhte Chloridkonzentration, tiefe Phosphatwerte, erhöhte Bicarbonatwerte und eine Störung im Säure-Base-Haushalt.
Die Ärztinnen und Ärzte vermuteten aufgrund seiner Laborwerte eine Bromvergiftung. Während der Mann untersucht wurde, erzählte er, dass er eine strikte Diät hielt und sein Wasser selbst destillierte. Er war sehr durstig, misstraute aber dem ihm angebotenen Wasser. In den ersten 24 Stunden seines Aufenthalts äusserte er eine gesteigerte Paranoia und auditive und visuelle Halluzinationen. Nach einem Fluchtversuch wurde er zwangsfixiert und mit Risperidon – einem Neuroleptikum, das bei Schizophrenie eingesetzt wird – behandelt.
Als der Patient wieder ruhiger und psychisch klarer war, kam die ganze Geschichte heraus: Er habe gehört, dass Speisesalz, also Natriumchlorid, ungesund sei. Bei seiner Recherche habe er gelesen, dass nur das Weglassen von Salz in Frage käme. Das habe ihn überrascht und angespornt, eine Alternative zu finden.
Von seinem ernährungswissenschaftlichen Studium am College inspiriert, entschied sich der Mann, ein Selbstexperiment zu starten. Drei Monate lang ersetzte er Natriumchlorid mit Natriumbromid. Darauf gekommen sei er durch ChatGPT. Das KI-Programm habe ihm gesagt, dass man Chlorid mit Bromid ersetzen könnte. Die Autorinnen und Autoren der Fallstudie vermuteten, dass der Mann eine ältere KI-Version genutzt hatte und dass seine Frage sehr allgemein gestellt war, sodass die Antwort in einem anderen Zusammenhang als mit Ernährung stand, etwa zum Putzen. Denn Bromid ist giftig.
Anfang des 20. Jahrhunderts kam Bromismus, wie Bromvergiftungen auch heissen, häufiger vor. Der Stoff, der ähnlich aussieht wie Salz, war in vielen nicht-verschreibungspflichtigen Medikamenten enthalten. Darunter Medikamente gegen Schlaflosigkeit, Hysterie oder Angstzustände.
Acht Prozent der psychiatrischen Einweisungen zu dieser Zeit gingen auf Bromismus zurück. Zwischen 1975 und 1989 schränkte die «U.S. Food and Drug Administration» den Einsatz von Bromid ein, wodurch auch die Fälle zurückgingen. Trotzdem gibt es immer noch einzelne Vergiftungsfälle durch bromhaltige Nahrungsergänzungsmittel, Sedative oder dem Hustenstiller Dextromethorphan.
Die Autorinnen und Autoren der Fallstudie schliessen den Text mit dem Hinweis, dass Missinformationen durch KI-Programme wie ChatGPT nicht zu unterschätzen seien. Während die Programme zwar eine Brücke zwischen der Wissenschaft und der nicht-wissenschaftlichen Bevölkerung schlagen können, würden sie auch Risiken bergen. Anders als eine Fachperson fragt ChatGPT nicht nach, ob man Bromid zum Putzen oder zum Würzen von Speisen nutzen will. Das kann aber in vielen Fällen ein wichtiger Unterschied sein. (aargauerzeitung.ch)
Er hätte also jemanden fragen können, der sich damit auskennt (seine Profs z.B.) oder es mit seinen Studienfreunden diskutieren. 🤷♂️
Vor allem: wenn man ein Experiment startet, dann sollte man ein Protokoll führen und jegliche Veränderung erstmal dem Experiment zuschreiben und nicht dem Nachbarn.
Also scheinbar hatte der Patient schon vor dem Experiment nicht mehr alle Tassen im Schrank.