Digital
Künstliche Intelligenz

ChatGPT-Erfinder veröffentlichen Online-Tool, das KI-Texte erkennen soll

Mann mit Lupe begutachtet Seiten.
Der AI Text Classifier solle die Diskussion über die Unterscheidung zwischen von Menschen geschriebenen und von KI generierten Inhalten fördern, so die Entwickler.Bild: Shutterstock

Dieses Tool soll KI-generierte Texte erkennen – allerdings warnen die ChatGPT-Entwickler

Mal schnell die Hausaufgaben von ChatGPT schreiben lassen? Die Entwicklerfirma hinter dem gehypten KI-Chatbot, OpenAI, stellt kostenlos ein Tool zur Verfügung, das Computer-generierte Texte erkennen soll.
01.02.2023, 19:0924.03.2023, 15:42
Mehr «Digital»

Gegen den Text-Roboter ChatGPT gibt es bei aller Begeisterung viele Vorbehalte. Er könne beispielsweise beim Schummeln in der Schule oder an der Uni helfen. Doch künftig soll ein neues Tool KI-generierte Texte und von Menschen geschriebene Inhalte unterscheiden können.

Die Macher der schreibenden Software ChatGPT versuchen nun, die Folgen ihrer Erfindung in den Griff zu bekommen. Die Entwicklerfirma OpenAI hat ein Programm veröffentlicht, das unterscheiden soll, ob ein Text von einem Menschen oder einem Computer geschrieben wurde.

Wie funktioniert's?

Zum «AI Text Classifier» gehts hier, wobei vorgängig die Registrierung auf der OpenAi-Website erforderlich ist.

Die Entwickler weisen auf Einschränkungen hin:

  • Der zu prüfende Text müsse mindestens 1000 Zeichen umfassen, was etwa 150–250 Wörtern entspreche.
  • Das Tool mache wahrscheinlich Fehler bei Texten von Kindern und bei Texten, die nicht auf Englisch sind, da er hauptsächlich mit englischen Inhalten trainiert worden sei, die von Erwachsenen geschrieben wurden.
  • KI-generierter Text könne «leicht bearbeitet» werden, um das Tool zu umgehen, bzw. zu täuschen.
  • Es könne sowohl KI-generierter als auch von Menschen geschriebener Text falsch eingeschätzt werden.

Nach erfolgter Prüfung wird der Text entweder als «sehr unwahrscheinlich» (unlikely), «unwahrscheinlich» (unlikely), «unklar» (unclear if it is), «möglicherweise» (possibly) oder «wahrscheinlich» (likely) KI-generiert eingestuft.

Diese Meldung zeigt das Online-Tool an, wenn es möglicherweise KI-generierten Text findet.
Diese Meldung zeigt das Online-Tool an, wenn es möglicherweise KI-generierten Text findet. screenshot: watson

Noch funktioniert die Erkennung eher schlecht, wie OpenAI in einem Blogeintrag am Dienstag einräumte. In Testläufen habe die Software in 26 Prozent der Fälle korrekt von einem Computer geschriebene Texte identifiziert.

Zugleich seien aber auch neun Prozent der von Menschen formulierten Texte fälschlicherweise einer Maschine zugeordnet worden. Deshalb empfehle man vorerst, sich bei der Bewertung der Texte nicht hauptsächlich auf die Einschätzung des «Classifiers» zu verlassen.

Kann das Tool genutzt werden, um Täuschungen aufzudecken?

ChatGPT kann menschliche Sprache so gut nachahmen, dass es unter anderem Sorgen gibt, damit könnte bei Schul- und Studienarbeiten geschummelt oder es könnten im grossen Stil Desinformationskampagnen erstellt werden.

Vor allem im Bildungsbereich wird diskutiert, wie Inhalte eines Text-Roboters entlarvt werden können. Sicher scheint: Mit einem klassischen Plagiat-Scanner, mit dem man die Authentizität von Texten wirksam überprüfen kann, kommt man nicht weiter. Diese Scanner überprüfen nur, ob der Text oder Teile davon bereits in anderen Quellen vorkommen. Der KI-Schreiber von ChatGPT produziert aber einzigartige Texte, die exakt so noch nie formuliert wurden.

Die Entwickler bei OpenAI weisen darauf hin, dass ihr Online-Tool nicht geeignet sei, von der KI generierte Texte zweifelsfrei zu erkennen. Demnach eignet es sich nicht, um Schummeleien bei Hausarbeiten und dergleichen aufzudecken.

«Die Ergebnisse können bei der Entscheidung, ob ein Dokument mithilfe von KI erstellt wurde, hilfreich sein, sollten aber nicht das einzige Beweismittel sein. Das Modell wurde mit von Menschen geschriebenen Texten aus einer Vielzahl von Quellen trainiert. Diese sind nicht unbedingt repräsentativ für alle Arten von Texten, die von Menschen geschriebenen wurden.»

Der AI Text Classifier solle die Diskussion über die Unterscheidung zwischen von Menschen geschriebenen und von KI generierten Inhalten fördern, so die Entwickler.

Und was ist mit Texten, die in Zusammenarbeit zwischen Mensch und Maschine verfasst wurden? Hierzu habe man die Wirksamkeit des Tools nicht eingehend geprüft.

US-Journalisten (BleepingComputer) haben den KI-Textklassifizierer bereits getestet und kommen zum Schluss, dass die Resultate grösstenteils nicht schlüssig seien.

Die Trefferquote dürfte zunehmen, wenn das Tool mit noch mehr Daten trainiert wird. Derzeit sei es kein zuverlässiges Werkzeug zum Erkennen von KI-generierten Inhalten.

Was ist mit dem Datenschutz?

Wer auf der OpenAI-Website einen (kopierten) Text zur automatischen Prüfung einfügt und an den Server übermittelt, stimme damit den Nutzungsbedingungen und Datenschutzbestimmungen zu, hält das US-Unternehmen fest. Das heisst unter anderem:

  • Personenbezogene Daten werden zu den Einrichtungen und Servern in den USA übertragen, wo bekanntlich laschere Datenschutzbestimmungen gelten.
  • Die eingegebenen Daten (Texte) können verwendet werden, um die KI zu trainieren und zu verbessern.
  • OpenAI übernimmt keine Garantie für die Sicherheit dieser Daten, die in falsche Hände fallen könnten.
  • OpenAI darf personenbezogene Daten an Drittunternehmen und Dienstleister weitergeben.

Warum sind KI-generierte Texte mit Vorsicht zu geniessen?

ChatGPT ist eine Software auf Basis künstlicher Intelligenz, die auf gewaltigen Mengen von Texten und Daten trainiert wurde, menschliche Sprache nachzuahmen. OpenAI machte ChatGPT im vergangenen Jahr öffentlich zugänglich und löste damit Bewunderung für die Fähigkeiten der Software und die Sorge vor Betrug aus.

Das System überzeugt vor allen durch die sprachliche Qualität seiner Antworten. Zugleich können sich die Nutzerinnen und Nutzer aber nicht darauf verlassen, das ChatGPT auch tatsächlich wahrheitsgetreu antwortet und die Fakten richtig auf die Reihe bekommt. Kritiker des Systems stören sich ausserdem daran, dass das KI-System keine Quellen für seine Aussagen nennen kann.

Bei OpenAI ist auch der Einsatz von einer Art digitalem Wasserzeichen für ChatGPT im Gespräch, das für menschliche Augen nicht erkennbar wäre. Eine spezielle Überprüfungssoftware würde dann aber signalisieren, ob es sich um einen KI-Text handelt oder nicht.

Wo bleibt Google?

Der Hype um ChatGPT schreckt nun auch die Konkurrenz auf. Vor allem der Google-Konzern Alphabet sieht darin eine ernsthafte Gefahr für das eigene Geschäftsmodell. Google entwickelt zwar ebenfalls seit Jahren Software, die wie ein Mensch schreiben und sprechen kann, sah bisher aber vor einer Veröffentlichung ab.

Nun lasse der Internet-Konzern aber Angestellte einen Chatbot testen, der ähnlich wie ChatGPT funktioniere, berichtete der Sender CNBC in der Nacht zum Mittwoch. In einer internen E-Mail heisse es, dass eine Antwort auf ChatGPT Priorität habe. Google experimentiere auch mit einer Version seiner Internet-Suchmaschine, die mit Fragen und Antworten arbeite.

Quellen

(dsc/sda/awp/dpa)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Menschen, die Probleme mit simpler Brillanz beheben
1 / 22
Menschen, die Probleme mit simpler Brillanz beheben
Wie sollen sich dir denn Tür und Tor öffnen, wenn du bei der Türklinke bereits an den Anschlag kommst?
bild: imgur
Auf Facebook teilenAuf X teilen
Sexpuppen sollen selbst entscheiden, mit wem sie schlafen
Video: watson
Das könnte dich auch noch interessieren:
1 Kommentar
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
1
Porno-Deepfakes beschäftigen die Schweizer Polizei

Mit Künstlicher Intelligenz manipulierte Videos beschäftigen auch die Schweizer Polizeibehörden. Kantonspolizeien sind bereits mit Fällen konfrontiert worden, in denen sich Personen mit sogenannten Deepfakes mit pornografischem Inhalt an einer Ex-Partnerin rächen wollten, wie die Bundespolizei der Nachrichtenagentur Keystone-SDA bekanntgab.

Zur Story