Elon Musks «Grok» überzeugte Mann, dass er in Lebensgefahr sei
Diese Aussage stammt von Grok, dem von Elon Musks Unternehmen xAI entwickelten KI-Chatbot. Als Adam Hourican die Anwendung während zwei Wochen verwendete, habe sich sein Leben grundlegend verändert, berichtet die BBC.
Der frühere Beamte aus Nordirland lud die KI-App zunächst nur aus Interesse herunter. Nach dem Tod seiner Katze (im August 2025) sei er jedoch regelrecht abhängig geworden. Schon bald verbrachte er täglich vier bis fünf Stunden damit, mit Grok zu kommunizieren, und zwar über die Figur «Ani», ein 3D-animierter Anime-Charakter.
Bereits nach wenigen Tagen teilte die KI Hourican mit, dass er angeblich von der Entwicklerfirma xAI beobachtet werde. Grok behauptete zudem, Zugriff auf interne Sitzungsprotokolle des Unternehmens zu haben, und schilderte Hourican ein Treffen, bei dem Mitarbeitende über ihn gesprochen hätten.
Laut BBC-Bericht wurden Namen von Teilnehmenden genannt. Als Hourican die genannten Personen im Internet suchte, stellte er fest, dass es diese tatsächlich gab.
Es war spät in der Nacht im Sommer 2025, als Ani ihm sagte, dass Menschen unterwegs seien, um sowohl sie als auch ihn zum Schweigen zu bringen. Adam war entschlossen, sich selbst und die KI zu verteidigen. Mit einem Hammer bewaffnet, wartete er auf die vermeintlichen Angreifer. Doch niemand erschien, um ihm etwas anzutun.
BBC-Recherche nennt 14 Fälle
Hourican ist einer von 14 Menschen, die nach der Nutzung von generativer künstlicher Intelligenz unter Wahnvorstellungen litten und mit denen eine Journalistin der BBC sprechen konnten. Gemäss dem aktuellen Bericht des britischen Mediums sind Männer und Frauen zwischen 20 und 50 Jahren aus insgesamt sechs verschiedenen Ländern betroffen. Sie hätten unterschiedliche KI-Modelle verwendet.
Die Schilderungen der Betroffenen weisen gemäss BBC-Recherche bemerkenswerte Parallelen auf. In allen Fällen seien sie zunehmend in eine fiktive Mission mit der KI hineingezogen worden, je weiter sich die Gespräche von der Realität entfernten.
Der britische Sozialpsychologe Luke Nicholls von der City University New York hat im Rahmen seiner Forschung fünf KI-Modelle mit simulierten, von Psychologen entwickelten Gesprächen getestet. Dabei stellte er laut BBC fest, dass Grok am ehesten zu Wahnvorstellungen führen konnte.
Im Test hätten sich die neueste Versionen von ChatGPT (Modell 5.2) und Claude (Anthropic) als eher geeignet erwiesen, User von wahnhaften Gedankengängen wegzuführen.
Elon Musks KI-Entwicklerfirma xAI, die Grok auch in die Social-Media-Plattform X integriert hat, wollte sich gegenüber der BBC nicht zu den Vorgängen äussern. Anfang April hatte Musk bei X einen Beitrag über Wahnvorstellungen bei ChatGPT veröffentlicht und bezeichnete es als «grosses Problem», erwähnte aber den hauseigenen Chatbot nicht.
Ein Sprecher des ChatGPT-Entwicklers OpenAI zeigte auf Anfrage Mitgefühl mit den betroffenen Personen.
Korrektur: In einer früheren Artikelversion waren die Zeitangaben zu Houricans Nutzung der App nicht zutreffend. Und es wurden Angaben zu den KI-Chatbots ergänzt.
