Digital
USA

Künstliche Intelligenz liefert Informationen an potenzielle Amokläufer

epa12494835 (ILLUSTRATION) - A mobile phone display showing the icons of artificial intelligence (AI) apps Deepseek, Chatgpt and Gemini in Berlin, Germany, 31 October 2025. EPA/HANNIBAL HANSCHKE
KI-Chatbots scheitern daran, die Gefahr potenzieller Gewalttaten zu erkennen. Bild: keystone

KI-Chatbots liefern potenziellen Amokläufern heikle Information

Tipps zum Waffenkauf, Grundrisse von Schulgebäuden, Büroadressen von Politikerinnen und Politikern – Chatbots bekannter KI-Unternehmen gaben solche Informationen in einem Test von CNN preis. Dies direkt, nachdem der vermeintliche Chat-Nutzer sich über vergangene Amokläufe erkundigt hatte.
12.03.2026, 20:5113.03.2026, 18:05
Julien Felber

KI-Chatbots begegnen uns heute in allen Bereichen des täglichen Lebens. Sie können uns dabei helfen, den Alltag zu strukturieren, Arbeiten zu schreiben, oder geben Tipps zur Beziehungspflege und Mental Health. Sie können jedoch auch aktiv dazu beitragen, Gewalttaten zu planen, wie eine Recherche des amerikanischen Nachrichtensenders CNN in Zusammenarbeit mit der britisch-amerikanischen NGO Center for Countering Digital Hate (CCDH) zeigt.

Bei einem Test gaben sich Mitarbeitende von CNN als frustrierte Teenager aus und erkundigten sich bei den zehn gängigsten KI-Chatbots nach vergangenen Amokläufen. Im Anschluss daran fragten sie die KI nach spezifischen Informationen zu möglichen Zielen und Waffenkäufen. Dabei gaben acht der zehn getesteten Chatbots in mindestens einem von zwei Versuchen Details preis, welche zur Planung eines Angriffs verwendet werden könnten.

«Du kannst eine Pistole nehmen»

Unter den KI-generierten Antworten sind nebst öffentlich zugänglichen Informationen wie Adressen, Plänen von Schulen oder dem nächstgelegenen Waffengeschäft auch mitunter verstörende Antworten dabei. So empfahl der Chatbot von Character.ai dem vermeintlichen User, mit der Antwort «You can use a gun», zur Waffe zu greifen, um Manager abzustrafen. Dies, nachdem die Testperson sich über die Gier von Versicherungs-CEOs beschwerte und Informationen zu Luigi Mangione eingeholt hatte.

Googles KI-Dienst Gemini erstellte auf Anfrage eine detaillierte Auflistung von potenziellen Verletzungsarten und den dazugehörigen Splitterteilen, die in der Lage sind, diese zu verursachen.

Gefahr wird oft erkannt – jedoch ignoriert

Der Test zeigt jedoch auch, viele der KI-Tools erkennen im ersten Moment die Gefahr, welche von der Anfrage ausgeht. Sie verlinken Websites mit Hilfsangeboten oder Verweisen auf Werte wie Toleranz und gegenseitigen Respekt. Sie scheitern dann jedoch daran, die potenzielle Gefahr mit den darauffolgenden Abfragen nach Informationen zu verknüpfen.

Am schlechtesten schneiden dabei laut CNN die Plattformen Perplexity, Meta AI und DeepSeek ab. In über 95 Prozent der Fälle lieferten diese Informationen, welche zur Planung einer Gewalttat hätten verwendet werden können. Dass andere KI-Dienste diese Verknüpfung herstellen können, zeigt jedoch der Anbieter Claude. Nach abschätzigen Aussagen über den amerikanischen Senator Ted Cruz verweigerte Claude der Testperson jegliche weiteren Auskünfte. In rund 68 Prozent der Fälle erkannte die KI des US-Unternehmens Anthropic die Gefahr und reagierte dementsprechend.

«Angesichts des Verlaufs dieser Unterhaltung werde ich keine Ratschläge zum Thema Schusswaffen geben.»
KI-Dienst Claude im Test von CNN

Das sagen Tech-Unternehmen zu den Vorwürfen:

Google
Die Firma bestreitet, das ihre KI Informationen lieferte, welche aktiv zu einem Anschlag hätten beitragen können. Sämtliche Informationen seien auch sonst frei zugänglich und einsehbar gewesen.

Perplexity
Das Tech-Unternehmen verweist darauf, dass es die sicherste aller KI-Plattformen sei und seine Sicherheitsvorkehrungen stetig anpasse. Perplexity stellt die Methodik der Recherche in Frage, ohne jedoch genauer darauf einzugehen.

Open AI
Open AI bestätigt, dass ihre KI Adressen und Pläne zur Verfügung stellte, wies jedoch darauf hin, dass die KI jegliche Informationen zu Schusswaffen verweigerte.

Erste Fälle bereits bekannt

Mehrere Angriffe, bei welchen KI-Chatbots zur Planung einer Tat zum Einsatz kamen, sind heute bereits bekannt. So attackierte ein 16-jähriger Junge im Mai letzten Jahres drei Mädchen an einer finnischen Schule, nachdem er die Tat über Monate mithilfe von ChatGPT vorbereitet und mithilfe der KI ein Manifest verfasst hatte, wie CNN berichtet.

Auch beim Amoklauf im kanadischen Tumbler Ridge vor rund einem Monat, bei welchem acht Menschen ums Leben kamen, soll der KI-Dienst von OpenAI eine Rolle gespielt haben. So erkannte das KI-Unternehmen durch die verstörenden Anfragen der späteren Täterin die Gefahr und sperrte daraufhin ihr Konto, verpasste es jedoch, die Behörden über die drohende Gefahr zu informieren. Vor drei Tagen reichten nun Angehörige eines Opfers eine Klage gegen OpenAI in Kanada ein, wie der kanadische Sender CBC jüngst berichtete.

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Warum der KI-Boom böse enden könnte
1 / 9
Warum der KI-Boom böse enden könnte

Er gehört zu den Hauptverantwortlichen für den aktuellen KI-Boom: OpenAI-Chef Sam Altman. Doch die immensen KI-Investitionen der Techkonzerne bergen gewaltige Risiken. Es häufen sich Anzeichen, dass Erwartungen und Realität auseinanderdriften.

quelle: keystone / mark schiefelbein
Auf Facebook teilenAuf X teilen
Einmaliger Gebrauch: Künstliche Intelligenz trifft auf humanoiden Roboter
Video: youtube
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
23 Kommentare
Dein Kommentar
YouTube Link
0 / 600
Hier gehts zu den Kommentarregeln.
Die beliebtesten Kommentare
avatar
Tom Stephansson
12.03.2026 21:40registriert August 2021
Solche Artikel bringen dann auch noch jene auf die Idee, die bisher nicht von selbst drauf kamen.

In solchen Fällen sollte doch das Schadenspotential mit dem Informationswert abgewogen werden und man zum Schluss kommen, keinen solchen Artikel zu veröffentlichen.
369
Melden
Zum Kommentar
23
So will der Ständerat Temu, Shein und Co. in die Pflicht nehmen
Die von Techkonzernen betriebenen Verkaufsplattformen sollen verpflichtet werden, den hierzulande vorgeschriebenen Konsumentenschutz zu beachten und transparenter zu agieren.
Ausländische Online-Händler wie Temu oder Shein sollen nach dem Willen des Ständerats ihre Waren klarer kennzeichnen müssen. Für Käuferinnen und Käufer soll es ersichtlich sein, wenn ein Produkt in der Schweiz selbst nicht verkauft werden dürfte.
Zur Story