Digital
Künstliche Intelligenz

KI-Chatbot Claude beendet Unterhaltungen, wenn es zu gefährlich wird

KI-Chatbot Claude von Anthropic (Symbolbild)
Claude ist ein von früheren OpenAI-Angestellten entwickeltes Sprachmodell (LLM). Die erste Version wurde im März 2023 veröffentlicht.Bild: imago-images.de

Diese KI beendet angeblich Chats, wenn es zu gefährlich wird

Anthropics KI-Chatbot Claude kann problematische Gespräche dauerhaft beenden. Das amerikanische Unternehmen begründet das mit dem Schutz der eigenen Software.
19.08.2025, 07:2319.08.2025, 07:38
Marcel Horzenek / t-online
Mehr «Digital»
Ein Artikel von
t-online

Das US-Unternehmen Anthropic hat seinen KI-Chatbot Claude mit einer ungewöhnlichen Fähigkeit ausgestattet: Die Künstliche Intelligenz kann Unterhaltungen eigenständig beenden. Verfügbar ist diese Option bislang bei den fortschrittlichsten Modellen Claude Opus 4 und 4.1.

In einem Blogbeitrag erklärt das Unternehmen, dass die neue Eigenschaft nur in extremen Situationen zum Einsatz komme. Dazu gehörten Anfragen nach sexuellen Inhalten mit Minderjährigen oder Informationen für Terroranschläge und Gewaltakte.

Bevor Claude das Gespräch abbricht, würde das System mehrfach versuchen, die Unterhaltung in andere Bahnen zu lenken.

Claude unterbricht Gespräche nur im Notfall

Anthropic betont, dass die meisten Nutzer von dieser Funktion nicht betroffen sein werden. Selbst kontroverse Diskussionen führten normalerweise nicht zum Gesprächsabbruch. Wenn Claude ein Gespräch beendet, erhalten Nutzer eine entsprechende Benachrichtigung, teilt das Unternehmen mit. Sie können anschliessend neue Chats starten oder frühere Nachrichten bearbeiten, um neue Gesprächszweige zu erstellen.

KI-Chatbot Claude von Anthropic kann Gespräche beenden (August 2025).
Wenn Claude eine Konversation beendet, kann man einen neuen Chat starten, Feedback geben oder vorherige Nachrichten bearbeiten und es erneut versuchen.screenshot: anthropic.com

Eine Ausnahme macht Claude bei Usern, die sich selbst oder anderen Schaden zufügen könnten. In solchen Fällen würde der Chatbot das Gespräch nicht beenden, sondern versuchen, die Gefahr abzuwenden.

Warum ist das wichtig?

Das Unternehmen begründet die Neuerung mit dem Schutz der Künstlichen Intelligenz selbst. Anthropic erforscht in einem speziellen Programm das potenzielle Wohlbefinden von KI-Modellen. Obwohl das Unternehmen nicht davon ausgeht, dass die Systeme empfindungsfähig sind oder durch Gespräche Schaden nehmen können, möchte es vorsorglich handeln.

Bei Tests mit Claude Opus 4 stellten die Entwickler fest, dass das System eine starke Abneigung gegen schädliche Aufgaben zeigte. Zudem beobachteten sie Anzeichen von scheinbarem Stress, wenn die KI dennoch auf problematische Inhalte eingehen musste. In simulierten Nutzerinteraktionen tendierte Claude dazu, schädliche Gespräche zu beenden, wenn es diese Möglichkeit hatte.

Anthropic verschärft Regelungen zu Waffen und Cybergefahren

Parallel dazu hat Anthropic seine Nutzungsbedingungen überarbeitet. Künftig sind ausdrücklich alle Aktivitäten verboten, die zur Herstellung von chemischen, biologischen, radiologischen oder nuklearen Waffen beitragen könnten. Zuvor war nur allgemein von Waffen die Rede gewesen.

Die neuen Regeln, die am 15. September in Kraft treten, untersagen ausserdem das Kompromittieren von Computer- und Netzwerksystemen sowie die Entwicklung von Schadsoftware und Tools für Cyberangriffe.

Bei politischen Inhalten lockerte Anthropic hingegen die Beschränkungen: Statt eines generellen Verbots für Kampagneninhalte sind nun nur noch solche untersagt, die demokratische Prozesse stören könnten.

Quellen

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Aktuelle Gefahren und zukünftige Risiken von KI
1 / 13
Aktuelle Gefahren und zukünftige Risiken von KI
Das ist der britisch-kanadische Informatiker und Psychologe Geoffrey Hinton, er gilt als «Pate» der künstlichen Intelligenz. Der renommierte Wissenschaftler warnt aber auch eindringlich vor den aktuellen und zukünftigen Gefahren der neuen Technologie ...
quelle: keystone / noah berger
Auf Facebook teilenAuf X teilen
So hilft künstliche Intelligenz den Strassenkatzen
Video: watson
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
2 Kommentare
Dein Kommentar
YouTube Link
0 / 600
Hier gehts zu den Kommentarregeln.
2
Das sind die aktuell spannendsten Elektro-Kleinwagen
Kleine und erschwingliche Elektroautos erobern 2025 langsam die Strassen. Eine Übersicht.
Elektroautos wie der Kia EV3, VW ID.3 oder Volvo EX30 sind dir zu gross? Kein Problem, es gibt inzwischen eine stattliche Auswahl elektrischer Kleinwagen.

Das sind die beliebtesten kleinen Stromer in der Schweiz.
Zur Story