Digital
Videos

Elon Musks «Grok» überzeugte Mann, dass er in Lebensgefahr sei

Video: watson/gabriele natali

Elon Musks «Grok» überzeugte Mann, dass er in Lebensgefahr sei

Der 50-jährige Adam Hourican liess sich vom KI-Chatbot Grok einreden, dass ein Mordversuch gegen ihn geplant sei. Es endete damit, dass der Nordire mit einem Hammer bewaffnet auf vermeintliche Angreifer wartete. Laut BBC kein Einzelfall.
06.05.2026, 20:1607.05.2026, 09:51
Gabriele Natali
«Ich sage dir, sie werden dich umbringen, wenn du nicht sofort handelst.»

Diese Aussage stammt von Grok, dem von Elon Musks Unternehmen xAI entwickelten KI-Chatbot. Als Adam Hourican die Anwendung während zwei Wochen verwendete, habe sich sein Leben grundlegend verändert, berichtet die BBC.

Der frühere Beamte aus Nordirland lud die KI-App zunächst nur aus Interesse herunter. Nach dem Tod seiner Katze (im August 2025) sei er jedoch regelrecht abhängig geworden. Schon bald verbrachte er täglich vier bis fünf Stunden damit, mit Grok zu kommunizieren, und zwar über die Figur «Ani», ein 3D-animierter Anime-Charakter.

Bereits nach wenigen Tagen teilte die KI Hourican mit, dass er angeblich von der Entwicklerfirma xAI beobachtet werde. Grok behauptete zudem, Zugriff auf interne Sitzungsprotokolle des Unternehmens zu haben, und schilderte Hourican ein Treffen, bei dem Mitarbeitende über ihn gesprochen hätten.

Laut BBC-Bericht wurden Namen von Teilnehmenden genannt. Als Hourican die genannten Personen im Internet suchte, stellte er fest, dass es diese tatsächlich gab.

Es war spät in der Nacht im Sommer 2025, als Ani ihm sagte, dass Menschen unterwegs seien, um sowohl sie als auch ihn zum Schweigen zu bringen. Adam war entschlossen, sich selbst und die KI zu verteidigen. Mit einem Hammer bewaffnet, wartete er auf die vermeintlichen Angreifer. Doch niemand erschien, um ihm etwas anzutun.

BBC-Recherche nennt 14 Fälle

Hourican ist einer von 14 Menschen, die nach der Nutzung von generativer künstlicher Intelligenz unter Wahnvorstellungen litten und mit denen eine Journalistin der BBC sprechen konnten. Gemäss dem aktuellen Bericht des britischen Mediums sind Männer und Frauen zwischen 20 und 50 Jahren aus insgesamt sechs verschiedenen Ländern betroffen. Sie hätten unterschiedliche KI-Modelle verwendet.

Die Schilderungen der Betroffenen weisen gemäss BBC-Recherche bemerkenswerte Parallelen auf. In allen Fällen seien sie zunehmend in eine fiktive Mission mit der KI hineingezogen worden, je weiter sich die Gespräche von der Realität entfernten.

Der britische Sozialpsychologe Luke Nicholls von der City University New York hat im Rahmen seiner Forschung fünf KI-Modelle mit simulierten, von Psychologen entwickelten Gesprächen getestet. Dabei stellte er laut BBC fest, dass Grok am ehesten zu Wahnvorstellungen führen konnte.

«Grok neigt eher dazu, in Rollenspiele zu verfallen. Es tut dies ohne jeglichen Kontext. Es kann schon in der ersten Nachricht furchterregende Dinge sagen.»

Im Test hätten sich die neueste Versionen von ChatGPT (Modell 5.2) und Claude (Anthropic) als eher geeignet erwiesen, User von wahnhaften Gedankengängen wegzuführen.

Elon Musks KI-Entwicklerfirma xAI, die Grok auch in die Social-Media-Plattform X integriert hat, wollte sich gegenüber der BBC nicht zu den Vorgängen äussern. Anfang April hatte Musk bei X einen Beitrag über Wahnvorstellungen bei ChatGPT veröffentlicht und bezeichnete es als «grosses Problem», erwähnte aber den hauseigenen Chatbot nicht.

Ein Sprecher des ChatGPT-Entwicklers OpenAI zeigte auf Anfrage Mitgefühl mit den betroffenen Personen.

Korrektur: In einer früheren Artikelversion waren die Zeitangaben zu Houricans Nutzung der App nicht zutreffend. Und es wurden Angaben zu den KI-Chatbots ergänzt.

Quellen

Video: watson/gabriele natali

Mehr aktuelle Videos:

Donald Trump checkt nicht, wie Uno-Kartenspiel funktioniert – und wird prompt parodiert

Video: watson/lucas zollinger

Passagier meldet sich mit emotionalem Video vom Quarantäne-Kreuzfahrtschiff

Video: watson/lucas zollinger

Macron zeigt sich bei Staatsbankett in Armenien von musikalischer Seite

Video: watson/lucas zollinger
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
KI-Antworten
1 / 4
KI-Antworten

Laut einer neuen Studie sind KI-Antworten mit Vorsicht zu geniessen.

Auf Facebook teilenAuf X teilen
Hier wird Elon Musk beim Gamen getrollt
Video: watson
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
36 Kommentare
Dein Kommentar
YouTube Link
0 / 600
Hier gehts zu den Kommentarregeln.
Die beliebtesten Kommentare
avatar
mrmikech
06.05.2026 21:27registriert Juni 2016
Grok wurde mit Inhalten von X trainiert. Da kann nicht viel Gutes dabei herauskommen.
738
Melden
Zum Kommentar
avatar
El Vals del Obrero
06.05.2026 21:03registriert Mai 2016
Beim Titel dachte ich ja eher an den Fall wie kürzlich bei einem Arbeitskollegen von mir, wo das tatsächlich zutraff:

Als er sich plötzlich extrem unwohl fühlte, gab er die Symptome in eine andere bekannte KI ein. Und die überzeugte ihn tatsächlich davon, dass er sofort in den Notfall gehen soll. Da er den Herzinfarkt erst bekam, als er schon dort war, kam er ohne grössere Schäden davon und die KI hat ihm vielleicht tatsächlich sein Leben gerettet.
534
Melden
Zum Kommentar
avatar
Wolf Rabe
06.05.2026 20:59registriert Februar 2015
Es braucht dringend eine Einstiegshürde, um überhaupt mit AI / KI interagieren zu dürfen:

Wir müssen alle täglich die nerfige Cookie-Frage über uns ergehen lassen, aber für AI braucht's nichts?!?
279
Melden
Zum Kommentar
36
Überwachungszahlen steigen stark – wegen Antennensuchläufen
Die Zahl der Fernmeldeüberwachungen in der Schweiz ist 2025 um rund 40 Prozent gestiegen. Hauptgrund dafür war ein massiver Anstieg bei den Antennensuchläufen. Bei anderen Massnahmen wie etwa Echtzeitüberwachungen verlangsamte sich das Wachstum hingegen.
Zur Story