Blogs
Work in progress

Warum wir der KI nicht vertrauen sollten

Frau im Gespräch mit einer künstlichen Intelligenz
KI sollten wir nicht blind vertrauen. bild: ffhs/ki-generiert
Work in progress

Warum wir der KI nicht vertrauen sollten

Künstliche Intelligenz täuscht uns mit überzeugender Sprache und verblüffend echten Bildern. Prof. Dr. Tobias Häberlein, Professor für generative KI an der FFHS, erklärt, warum wir ChatGPT & Co. nicht blind vertrauen dürfen, was Studierende beim Einsatz von KI beachten sollten und wie wir unser kritisches Denken schärfen.
12.11.2025, 14:0413.11.2025, 06:59
natascha Ritz, ffhs

Tobias Häberlein, sollten wir KI vertrauen?
Tobias Häberlein: Nein. Man darf den Antworten von ChatGPT nicht blind trauen.

Die Mehrheit tut es aber. Was macht die KI so überzeugend?
Es gibt diesen bekannten «Automation Bias». Wir neigen dazu, Maschinen stärker zu vertrauen als Menschen. Ein Large Language Model (LLM) ist in der Lage, sprachlich sehr schöne Antworten zu formulieren, was den Effekt noch verstärkt.

Schöne Sprache allein wirkt so stark?
Psychologisch nennt man das den Halo-Effekt. Wenn ein System oder ein Mensch in einem Aspekt glänzt, wie eben die gut formulierte Sprache, wird die komplette Wahrnehmung davon beeinflusst. Wenn es so gut klingt, dann muss es ja stimmen. Darauf sind die LLMs perfekt abgestimmt: Dinge zu erschaffen, die echt wirken, es aber nicht sind.

Wieso halluziniert KI?
LLMs sind keine Wissensdatenbanken, sondern stochastische Modelle. Es gibt keinen vorbestimmten Weg zu den Antworten, sie suchen sich praktisch immer das nächste Wort, das möglichst passend ist. Bei dieser «Next Word Prediction» beginnt das LLM einen Satz und wählt basierend auf Milliarden von Trainingsdaten zufallsbasiert eines der wahrscheinlichsten Wörter aus, die darauf folgen, und reiht so ein Wort nach dem anderen auf. Das Halluzinieren ist tatsächlich fast sehr menschlich, denn wenn wir eine Antwort nicht genau wissen, dann fangen wir auch oft an, uns was zusammenzureimen.

ChatGPT zeigt sich oft als unkritischer Kumpel, der mir immer recht gibt. Absicht?
Ja. Das LLM wird angewiesen, immer eine positive Rückmeldung zu geben, besonders freundlich zu sein und uns zu bestärken. Es soll es uns angenehmer machen, mit dem LLM zu kommunizieren. Da spielt der Wettbewerb der LLM-Anbieter eine zentrale Rolle. Open AI möchte natürlich, dass wir ChatGPT nutzen und nicht Gemini oder Claude.

Prof. Dr. Tobias Häberlein, Departement Informatik FFHS
Gemäss Häberlein ist die generative KI perfekt darauf abgestimmt, uns eine Realität vorzugaukeln, die nicht echt ist. (Foto: Christian Pfammatter)

KI-generierte Fotos, Audios und Videos werden immer realistischer. Deepfakes sind eine drohende, manipulative Gefahr. Kann man sie in Zukunft noch entlarven?
Es wird immer schwieriger. Mit dem Tool «Live Face Swap» kann ich über mein Gesicht in Echtzeit ein anderes legen, das meine Mimik komplett übernimmt. Eine Stimme lässt sich praktisch perfekt klonen, da reicht eine Stimmprobe von 10 Sekunden. Das lässt sich nicht mehr entlarven, auch nicht von Detektoren. Nehmen wir das Video-Statement Trumps nach der Ermordung Charlie Kirks. Viele waren sich nicht sicher, ob die Aufnahme echt ist. Von aussen ist dies kaum verifizierbar.

Ist diese Entwicklung einfach eine Schattenseite der KI oder ein existenzielles Risiko?
Bisher waren wir gewohnt, dass ein Bild, Ton oder Film auf einem realen Ereignis basiert. Daher denken wir bei einem Foto automatisch, dass es die Wirklichkeit abbildet. Aber das ist nicht mehr länger der Fall, weder bei Bildern noch bei Filmen. Ich sehe das als grosse Gefahr und bin mir nicht sicher, ob die Menschheit bereit dafür ist. «Humans are hackable animals», sagt Yuval Noah Harari. Wir Menschen sind hackbar geworden. Generative KI kann uns fast perfekt manipulieren. Kritisches Denken muss heute viel mehr heissen, als sich nur den Output einer KI anzuschauen und zu überlegen, stimmt das jetzt oder nicht?

Was heisst kritisches Denken heute?
Sich selbst zu reflektieren und sich auch mit seiner eigenen Psychologie zu befassen. Warum neige ich dazu, so schnell zu vertrauen? Wir sind durch wissenschaftliches Gebaren leicht täuschbar. In den 1960er Jahren haben die Milgram-Experimente schockiert. Die Versuchsleiter in diesen weissen Kitteln gaben vor, Repräsentanten der Wissenschaft zu sein. Dadurch haben sie die Probanden so weit gebracht, anderen Menschen scheinbar lebensgefährliche Stromschläge zu versetzen. Letztlich sind die LLMs heute auch die Repräsentanten in den weissen Kitteln und tun so, als stünden sie im Dienst der Wahrheit.

Was raten Sie Studierenden, wenn Sie KI für Ihr Studium einsetzen? Was sollen sie glauben und was nicht?
Ich rate: Glaubt der KI nichts (lacht). Wir müssen vom klassischen Bild «KI als Werkzeug» wegkommen, also dass ich einen Prompt eingebe und das Ergebnis nach kritischer Betrachtung einfach übernehme. Wenn die Studierenden auf die KI zugehen und sagen «mach mir mal einen Vorschlag für ein Inhaltsverzeichnis meiner Thesis», ohne klare Richtung, dann wird nichts Gutes dabei herauskommen. KI ist ein Dialogpartner und du musst vorgeben, worauf du hinauswillst.

KI wird oft mit der Einführung des Taschenrechners verglichen. Berechtigt?
Nein. Taschenrechner liefern immer einen deterministischen Output auf arithmetische Fragen und da liefern sie immer das richtige. Sprachmodelle sind etwas komplett anderes. Sie geben auf alles eine Antwort und noch dazu eine gut formulierte. Dem Taschenrechner kannst du zu 100 Prozent glauben.

Contentpartnerschaft mit FFHS

Dieser Blog ist eine Contentpartnerschaft mit der FFHS Fernfachhochschule Schweiz. Die Beiträge werden von der FFHS verfasst.

Mit dem Ansatz «KI Leadership» will die FFHS die Studierenden fit machen im Umgang mit KI. Die FFHS bezieht die künstliche Intelligenz mit ihrem Leitmotiv aktiv in die Lehre ein und unterstützt die Studierenden, KI nicht als Werkzeug, sondern als Dialogpartnerin zu nutzen und dabei sowohl Kompetenzen mit als auch ohne KI zu entwickeln.

Es handelt sich nicht um bezahlten Inhalt.
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Die verrückte Geschichte von OpenAI und ChatGPT
1 / 26
Die verrückte Geschichte von OpenAI und ChatGPT

ChatGPT hat die Welt im Sturm erobert. In dieser Bildstrecke erfährst du, wie aus der Non-Profit-Organisation ein Milliardenbusiness wurde. Und wir erinnern an die technischen Meilensteine, die schliesslich zur bahnbrechenden Technologie führten.

quelle: shutterstock
Auf Facebook teilenAuf X teilen
KI oder Konto – soll ich jetzt auf Tech setzen, Dr. Martha Boeckenfeld?
Video: watson
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
19 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
19
15 spontane Winterausflüge, die du mit dem ÖV machen kannst ❄️
Die kalte Jahreszeit hat ihren ganz eigenen Charme: glitzernde Weihnachtsmärkte, dampfende Thermalbäder und verschneite Panoramen warten darauf, entdeckt zu werden. Das Beste daran? Die schönsten Winterziele der Schweiz liegen oft nur wenige Zugstunden entfernt.
Keine Lust auf Stau, Parkplatzsuche oder Schneeketten? Musst du auch nicht. Von den grossen Städten aus erreichst du mit dem ÖV im Handumdrehen zauberhafte Orte, die perfekt für einen Tagesausflug oder ein spontanes Wochenende sind. Ob Wellness-Tag, Winterwanderung oder kulinarische Entdeckungsreise – hier kommen 15 Ideen, die zeigen, dass Winter in der Schweiz alles andere als langweilig ist.
Zur Story