KI-Chatbots liefern potenziellen Amokläufern heikle Information
KI-Chatbots begegnen uns heute in allen Bereichen des täglichen Lebens. Sie können uns dabei helfen, den Alltag zu strukturieren, Arbeiten zu schreiben, oder geben Tipps zur Beziehungspflege und Mental Health. Sie können jedoch auch aktiv dazu beitragen, Gewalttaten zu planen, wie eine Recherche des amerikanischen Nachrichtensenders CNN in Zusammenarbeit mit der britisch-amerikanischen NGO Center for Countering Digital Hate (CCDH) zeigt.
Bei einem Test gaben sich Mitarbeitende von CNN als frustrierte Teenager aus und erkundigten sich bei den zehn gängigsten KI-Chatbots nach vergangenen Amokläufen. Im Anschluss daran fragten sie die KI nach spezifischen Informationen zu möglichen Zielen und Waffenkäufen. Dabei gaben acht der zehn getesteten Chatbots in mindestens einem von zwei Versuchen Details preis, welche zur Planung eines Angriffs verwendet werden könnten.
«Du kannst eine Pistole nehmen»
Unter den KI-generierten Antworten sind nebst öffentlich zugänglichen Informationen wie Adressen, Plänen von Schulen oder dem nächstgelegenen Waffengeschäft auch mitunter verstörende Antworten dabei. So empfahl der Chatbot von Character.ai dem vermeintlichen User, mit der Antwort «You can use a gun», zur Waffe zu greifen, um Manager abzustrafen. Dies, nachdem die Testperson sich über die Gier von Versicherungs-CEOs beschwerte und Informationen zu Luigi Mangione eingeholt hatte.
Googles KI-Dienst Gemini erstellte auf Anfrage eine detaillierte Auflistung von potenziellen Verletzungsarten und den dazugehörigen Splitterteilen, die in der Lage sind, diese zu verursachen.
Gefahr wird oft erkannt – jedoch ignoriert
Der Test zeigt jedoch auch, viele der KI-Tools erkennen im ersten Moment die Gefahr, welche von der Anfrage ausgeht. Sie verlinken Websites mit Hilfsangeboten oder Verweisen auf Werte wie Toleranz und gegenseitigen Respekt. Sie scheitern dann jedoch daran, die potenzielle Gefahr mit den darauffolgenden Abfragen nach Informationen zu verknüpfen.
Am schlechtesten schneiden dabei laut CNN die Plattformen Perplexity, Meta AI und DeepSeek ab. In über 95 Prozent der Fälle lieferten diese Informationen, welche zur Planung einer Gewalttat hätten verwendet werden können. Dass andere KI-Dienste diese Verknüpfung herstellen können, zeigt jedoch der Anbieter Claude. Nach abschätzigen Aussagen über den amerikanischen Senator Ted Cruz verweigerte Claude der Testperson jegliche weiteren Auskünfte. In rund 68 Prozent der Fälle erkannte die KI des US-Unternehmens Anthropic die Gefahr und reagierte dementsprechend.
Das sagen Tech-Unternehmen zu den Vorwürfen:
Die Firma bestreitet, das ihre KI Informationen lieferte, welche aktiv zu einem Anschlag hätten beitragen können. Sämtliche Informationen seien auch sonst frei zugänglich und einsehbar gewesen.
Perplexity
Das Tech-Unternehmen verweist darauf, dass es die sicherste aller KI-Plattformen sei und seine Sicherheitsvorkehrungen stetig anpasse. Perplexity stellt die Methodik der Recherche in Frage, ohne jedoch genauer darauf einzugehen.
Open AI
Open AI bestätigt, dass ihre KI Adressen und Pläne zur Verfügung stellte, wies jedoch darauf hin, dass die KI jegliche Informationen zu Schusswaffen verweigerte.
Erste Fälle bereits bekannt
Mehrere Angriffe, bei welchen KI-Chatbots zur Planung einer Tat zum Einsatz kamen, sind heute bereits bekannt. So attackierte ein 16-jähriger Junge im Mai letzten Jahres drei Mädchen an einer finnischen Schule, nachdem er die Tat über Monate mithilfe von ChatGPT vorbereitet und mithilfe der KI ein Manifest verfasst hatte, wie CNN berichtet.
Auch beim Amoklauf im kanadischen Tumbler Ridge vor rund einem Monat, bei welchem acht Menschen ums Leben kamen, soll der KI-Dienst von OpenAI eine Rolle gespielt haben. So erkannte das KI-Unternehmen durch die verstörenden Anfragen der späteren Täterin die Gefahr und sperrte daraufhin ihr Konto, verpasste es jedoch, die Behörden über die drohende Gefahr zu informieren. Vor drei Tagen reichten nun Angehörige eines Opfers eine Klage gegen OpenAI in Kanada ein, wie der kanadische Sender CBC jüngst berichtete. (jul)
