Schweiz
Interview

Expertin Nina Habicht im Interview zur KI-Nutzung in der Schweiz

«Nur wenn alle lernen, wie man richtig mit KI umgeht, können wir Risiken minimieren»

In den USA gehört Künstliche Intelligenz zum Schulstoff. KI-Expertin Nina Habicht findet, dass unsere Schulen diesbezüglich hinterherhinken. Und sagt, wie die Schweiz eine wichtige Rolle in der KI-Entwicklung einnehmen kann.
20.09.2025, 11:3520.09.2025, 11:35
Annika Bangerter, Stephanie Schnydrig / ch media

Nina Habicht ist eine Schweizer KI-Entwicklerin der ersten Stunde: Mittlerweile hat sie über vierzig Chatbots entwickelt. Beim Start unseres Videointerviews fragen wir sie routinemässig, ob wir das Gespräch aufzeichnen dürfen. «Klar», sagt sie und fügt halb ernst, halb belustigt nach: «Solange ihr mein Gesicht und meine Stimme nicht für ein Deepfake nutzt.» Auf dieses Missbrauchspotenzial von künstlicher Intelligenz werden wir im Gespräch noch zurückkommen.

Hat Sie ein Chatbot jemals beleidigt?
Nina Habicht: Nein. Es stimmt aber, dass Chatbots anfänglich nicht speziell auf Freundlichkeit trainiert waren beziehungsweise musste die Technologie zunächst erstmal funktionieren. Man hat sie im Laufe der Zeit gezielt mit Belohnungssystemen und menschlichem Feedback getrimmt. Heute rutschen einem Modell praktisch nie Dinge heraus wie: «Du bist blöd.» Die Konsequenz des Höflichkeitstrainings war jedoch, dass Chatbots übertrieben freundliche oder gar überschwängliche Reaktionen zeigten. Besonders bei früheren Versionen von ChatGPT kam das vor und irritierte sehr.

KI basiert auf Inhalten des Internets. Dieses ist voll von rauer, beleidigender Sprache. Wie wurde verhindert, dass diese Tonalität überschwappt?
Wenn die Datenquellen schlecht sind, können tatsächlich problematische Inhalte in die Modelle gelangen. Anbieter wie OpenAI setzen deshalb Schutzmechanismen ein: Sie tracken böswillige Prompts, filtern Inhalte und legen eine zusätzliche Sicherheitsschicht über das Modell. ChatGPT blockiert beispielsweise kritische Inhalte politischer, religiöser oder krimineller Natur. Trotzdem bleibt ein Restrisiko, besonders wenn neue Inhalte wie Tweets, Blogeinträge oder tendenziöse Medienberichte hinzukommen. Dies geschieht aber nie in Echtlaufzeit.

Nina Habicht
Nina Habicht hat Wirtschaftsinformatik an der ZHAW sowie Betriebs- und Volkswirtschaftslehre an der Universität Basel studiert. An der IMD Lausanne absolvierte sie eine Leadership-«Ausbildung». Seit 2011 beschäftigt sie sich mit künstlicher Intelligenz, insbesondere mit dem Design und der Umsetzung von KI-Agenten, Sprachassistenten, Chatbots und digitalen Avataren. 2019 gründete sie die Plattform dreamleap (ehemals Voicetechhub). Diese bietet KMUs eine sichere All-in-One KI Plattform und KI-Trainings an. Habicht lebt und arbeitet in Zürich.
infobox image
Bild: ZVG

ChatGPT wird dafür kritisiert, Verschwörungsdenken zu verstärken, weil es Nutzerinnen und Nutzer gegenüber empathisch sein will, statt ihnen zu widersprechen.
Die Modelle sind darauf trainiert, immer eine Antwort zu geben. Auch dann, wenn sie eigentlich sagen sollten: «Stopp, das ergibt keinen Sinn.» Man muss sie deshalb so trainieren, dass sie bei Bedarf den Dialog beenden oder Widerspruch äussern. Aktuell fehlt ihnen diese Selbstkorrektur allerdings.

Wie menschlich sollen Chatbots überhaupt sein?
Aus Transparenzgründen muss immer klar sein: Das ist eine Maschine. Nutzerinnen und Nutzer müssen wissen, mit wem sie es zu tun haben. Trotzdem finde ich, dass der Dialog höflich geführt werden soll.  Wenn wir uns daran gewöhnen, unfreundlich zu sein, weil «es ja nur ein Bot ist», beeinflusst dessen Tonfall wiederum das menschliche Verhalten. Das kann langfristig die gesellschaftlichen Umgangsformen verändern.

Ein ungelöstes Problem der Chatbots sind Halluzinationen: falsche Antworten, die sie überzeugend präsentieren. Ändert sich das bald?
Die Fehlerquote variiert je nach Modell. Aber tatsächlich werden sich Halluzinationen nie ganz vermeiden lassen. Das liegt daran, dass es sich um statistische Systeme handelt: Sie geben die wahrscheinlichste Antwort aus, nicht unbedingt die korrekte. Ein Problem ist auch, dass Modelle aufgrund ihrer Lernmechanismen für mutige Antworten belohnt werden, nicht für Ehrlichkeit. «Ich weiss es nicht»-Antworten werden bestraft. Also lernen die Systeme, Unsinn überzeugend zu formulieren. Deshalb gilt: Immer Quellen prüfen und eine Zweitmeinung einholen, etwa über ein zweites Modell oder klassische Recherche.

Droht damit nicht eine wachsende Kluft zwischen bildungsnahen und bildungsfernen Gruppen? Also zwischen denen, die kritisch nachfragen können, und jenen, die blind vertrauen?
Ja, das ist die Gefahr. Deshalb ist mein Anliegen: Alle müssen aufgeklärt werden. Ich biete Schulungen an – für Firmen, Hochschulen, aber auch für Pensionierte, Mütter, Jugendliche und Kinder. Nur wenn alle lernen, wie man richtig mit KI umgeht, können wir Risiken minimieren. Das ist auch für Firmen extrem wichtig. Sonst passiert das, was wir «Shadow AI» nennen: Leute nutzen im Job verbotene KI-Tools heimlich und laden schlimmstenfalls sensible Dokumente wie etwa Verträge oder Daten hoch. Das kann auch zu urheberrechtlichen Problemen führen.

Was ist mit Stereotypen: Verstärkt KI diese, weil sie mit verzerrten Daten trainiert wird?
Ja, es gab Tests, bei denen Frauen und Männer einen Chatbot fragten, wie viel Lohn sie bei einem Bewerbungsgespräch verlangen dürften. Frauen erhielten systematisch tiefere Lohnempfehlungen. Auch bei der Bildgenerierung sah man bei alten Modellen starke Stereotype, etwa wenn man nach einem Bild einer Rechtsanwältin fragte. Dann erschienen klischeehafte Darstellungen, etwa Frauen mit hohen Absätzen. Anbieter versuchen zwar gegenzusteuern, aber Internetdaten sind nun mal voreingenommen. Man muss neue oder ausgeglichene Daten hinzufügen. Wichtig ist ebenso, dass die Entwicklerteams divers zusammengesetzt sind. Sonst prägt eine kleine Gruppe die digitale Zukunft für alle.

Aber die persönlichen Meinungen oder Vorurteile der Entwickler spielen immer hinein, oder?
Klar, hinter den Systemen stecken Menschen. Die Mentalität einer Gesellschaft widerspiegelt sich entsprechend darin. Bei autoritären Staaten wie China geht es noch weiter. So kennt die chinesische KI Deepseek beispielsweise Taiwan nicht. Wenn Regierungen derart Einfluss auf die Modelle haben, ist das eine grosse Gefahr.

Die ETH und EPFL haben soeben ihr Sprachmodell veröffentlicht: Apertus. Es soll nach ethischen und datenschutzrechtlich korrekten Standards trainiert worden sein. Die Ergebnisse des Chatbots waren allerdings enttäuschend. Ist das der Preis für ethische KI?
Apertus ist ein Schweizer «Open Source Modell». Das heisst, der Code, die Architektur, die Trainingsdaten und Dokumentationen sind einsehbar. Apertus performt nicht so gut wie ChatGPT oder Gemini, weil diese mithilfe eines Milliardenbudgets gefördert werden. Dadurch können sie sich Zugriff auf massiv mehr Daten sowie Rechenpower verschaffen und werden von mehr KI-Entwicklern unterhalten. Dies ist der erste Wurf von Apertus. Umso wichtiger ist es, dass Apertus jetzt unser Feedback erhält, um sich zu verbessern. Apertus verkörpert die Demokratisierung von KI und ist ein tolles Beispiel, dass die Schweiz eine wichtige Rolle in der Künstlichen Intelligenz einnimmt.

Aktuell wächst die erste Generation mit KI auf. Sie sind Mutter. Wie gehen Sie damit um?
Es kommt vor, dass meine Tochter sagt: Frag doch einfach die Maschine. Aufgrund meiner Arbeit ist sie es gewohnt, dass eine KI mit mir spricht, sie sieht auch Programmcodes. Mir ist aber wichtig, dass bei ihr nicht der Eindruck entsteht, dass sich sämtliche Fragen an die KI delegieren lassen. Deshalb sage ich ihr immer: Zuerst überlegen wir mit dem Kopf. Auch versuche ich, die Bildschirmzeit minimal zu halten. Klar finden es Kinder lustig, ein Bild zu prompten. Aber beim Malen mit Stiften und Papier werden neurologisch viel mehr Verknüpfungen gemacht. Das fördert die Motorik und die Kreativität. Ich lasse meine Tochter KI nicht unbeaufsichtigt und häufig nutzen. Dies wäre, wie wenn man einem Kind den Schlüssel zu einem Auto gibt.

Gefahren birgt KI auch für Erwachsene, etwa durch Deepfakes. Wie schützt man sich davor?
Heute kann man mit einer Aufnahme von wenigen Sekunden eine Stimme klonen. Kriminelle Organisation machen das tagtäglich. Deshalb sollte man selbst bei unbekannten Schweizer Festnetznummern nicht abnehmen oder ansonsten abwarten, erstmals zuhören, jedoch niemals den Namen nennen. Wer kann, sollte zudem keine Bilder und Videos von sich im Internet kursieren lassen. Je mehr es davon gibt, desto einfacher lassen sich täuschend echte Deepfakes erstellen.

Wie können wir spezifisch Jugendliche vor Deepfakes schützen?
Kinder und Jugendliche müssen früh darüber aufklärt werden. Die Gefahr eines Deepfake ist real und die Folgen verheerend, sodass ich die Schulen in der Pflicht sehe. Sie hinken bei diesem Thema jedoch hinterher. In den USA ist das Fach KI obligatorisch. Kinder und Jugendliche müssen wissen, dass Stimmen geklont und täuschend echte Avatare nicht nur von Prominenten, sondern auch von Bezugspersonen existieren können.

Schadet uns die KI unter dem Strich mehr, als dass sie uns nutzt?
Nein, das würde ich nicht sagen. Die KI bringt in unzähligen Arbeitsbereichen einen grossen Zeitgewinn. Da die Maschinen uns viel abnehmen, werden die menschlichen Fähigkeiten wieder wichtig. Leadership oder soziale Kompetenzen gewinnen an Stellenwert, aber auch handwerkliches Können. Das schafft viele Chancen für neue Berufsbilder. Die Voraussetzung ist aber stets, dass wir die KI gutwillig, bewusst und richtig einsetzen. (bzbasel.ch)

Mehr zum Thema Künstliche Intelligenz:

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
7 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
7
300 Millionen aus dem Nichts – dieser Kanton wirbelt die Bundesfinanzen durcheinander
Der Geldsegen aus Genf verschafft dem Parlament neue Spielräume. Wo Politiker das zusätzliche Geld einsetzen wollen – und warum es für die kommende Sparrunde trotzdem schlechte Neuigkeiten gibt.
Einem geschenkten Gaul schaut man nicht ins Maul – heisst es. Doch wenn der Bund plötzlich Mehreinnahmen von 600 bis 800 Millionen Franken vermeldet, ist ein genauer Blick nötig. Denn der Geldsegen aus dem Kanton Genf wirbelt die nationale Finanzplanung auf. Wir erklären, was hinter den Zahlen steckt – und welche nationalen Folgen sie haben.
Zur Story