«Nur wenn alle lernen, wie man richtig mit KI umgeht, können wir Risiken minimieren»
Nina Habicht ist eine Schweizer KI-Entwicklerin der ersten Stunde: Mittlerweile hat sie über vierzig Chatbots entwickelt. Beim Start unseres Videointerviews fragen wir sie routinemässig, ob wir das Gespräch aufzeichnen dürfen. «Klar», sagt sie und fügt halb ernst, halb belustigt nach: «Solange ihr mein Gesicht und meine Stimme nicht für ein Deepfake nutzt.» Auf dieses Missbrauchspotenzial von künstlicher Intelligenz werden wir im Gespräch noch zurückkommen.
Hat Sie ein Chatbot jemals beleidigt?
Nina Habicht: Nein. Es stimmt aber, dass Chatbots anfänglich nicht speziell auf Freundlichkeit trainiert waren beziehungsweise musste die Technologie zunächst erstmal funktionieren. Man hat sie im Laufe der Zeit gezielt mit Belohnungssystemen und menschlichem Feedback getrimmt. Heute rutschen einem Modell praktisch nie Dinge heraus wie: «Du bist blöd.» Die Konsequenz des Höflichkeitstrainings war jedoch, dass Chatbots übertrieben freundliche oder gar überschwängliche Reaktionen zeigten. Besonders bei früheren Versionen von ChatGPT kam das vor und irritierte sehr.
KI basiert auf Inhalten des Internets. Dieses ist voll von rauer, beleidigender Sprache. Wie wurde verhindert, dass diese Tonalität überschwappt?
Wenn die Datenquellen schlecht sind, können tatsächlich problematische Inhalte in die Modelle gelangen. Anbieter wie OpenAI setzen deshalb Schutzmechanismen ein: Sie tracken böswillige Prompts, filtern Inhalte und legen eine zusätzliche Sicherheitsschicht über das Modell. ChatGPT blockiert beispielsweise kritische Inhalte politischer, religiöser oder krimineller Natur. Trotzdem bleibt ein Restrisiko, besonders wenn neue Inhalte wie Tweets, Blogeinträge oder tendenziöse Medienberichte hinzukommen. Dies geschieht aber nie in Echtlaufzeit.
ChatGPT wird dafür kritisiert, Verschwörungsdenken zu verstärken, weil es Nutzerinnen und Nutzer gegenüber empathisch sein will, statt ihnen zu widersprechen.
Die Modelle sind darauf trainiert, immer eine Antwort zu geben. Auch dann, wenn sie eigentlich sagen sollten: «Stopp, das ergibt keinen Sinn.» Man muss sie deshalb so trainieren, dass sie bei Bedarf den Dialog beenden oder Widerspruch äussern. Aktuell fehlt ihnen diese Selbstkorrektur allerdings.
Wie menschlich sollen Chatbots überhaupt sein?
Aus Transparenzgründen muss immer klar sein: Das ist eine Maschine. Nutzerinnen und Nutzer müssen wissen, mit wem sie es zu tun haben. Trotzdem finde ich, dass der Dialog höflich geführt werden soll. Wenn wir uns daran gewöhnen, unfreundlich zu sein, weil «es ja nur ein Bot ist», beeinflusst dessen Tonfall wiederum das menschliche Verhalten. Das kann langfristig die gesellschaftlichen Umgangsformen verändern.
Ein ungelöstes Problem der Chatbots sind Halluzinationen: falsche Antworten, die sie überzeugend präsentieren. Ändert sich das bald?
Die Fehlerquote variiert je nach Modell. Aber tatsächlich werden sich Halluzinationen nie ganz vermeiden lassen. Das liegt daran, dass es sich um statistische Systeme handelt: Sie geben die wahrscheinlichste Antwort aus, nicht unbedingt die korrekte. Ein Problem ist auch, dass Modelle aufgrund ihrer Lernmechanismen für mutige Antworten belohnt werden, nicht für Ehrlichkeit. «Ich weiss es nicht»-Antworten werden bestraft. Also lernen die Systeme, Unsinn überzeugend zu formulieren. Deshalb gilt: Immer Quellen prüfen und eine Zweitmeinung einholen, etwa über ein zweites Modell oder klassische Recherche.
Droht damit nicht eine wachsende Kluft zwischen bildungsnahen und bildungsfernen Gruppen? Also zwischen denen, die kritisch nachfragen können, und jenen, die blind vertrauen?
Ja, das ist die Gefahr. Deshalb ist mein Anliegen: Alle müssen aufgeklärt werden. Ich biete Schulungen an – für Firmen, Hochschulen, aber auch für Pensionierte, Mütter, Jugendliche und Kinder. Nur wenn alle lernen, wie man richtig mit KI umgeht, können wir Risiken minimieren. Das ist auch für Firmen extrem wichtig. Sonst passiert das, was wir «Shadow AI» nennen: Leute nutzen im Job verbotene KI-Tools heimlich und laden schlimmstenfalls sensible Dokumente wie etwa Verträge oder Daten hoch. Das kann auch zu urheberrechtlichen Problemen führen.
Was ist mit Stereotypen: Verstärkt KI diese, weil sie mit verzerrten Daten trainiert wird?
Ja, es gab Tests, bei denen Frauen und Männer einen Chatbot fragten, wie viel Lohn sie bei einem Bewerbungsgespräch verlangen dürften. Frauen erhielten systematisch tiefere Lohnempfehlungen. Auch bei der Bildgenerierung sah man bei alten Modellen starke Stereotype, etwa wenn man nach einem Bild einer Rechtsanwältin fragte. Dann erschienen klischeehafte Darstellungen, etwa Frauen mit hohen Absätzen. Anbieter versuchen zwar gegenzusteuern, aber Internetdaten sind nun mal voreingenommen. Man muss neue oder ausgeglichene Daten hinzufügen. Wichtig ist ebenso, dass die Entwicklerteams divers zusammengesetzt sind. Sonst prägt eine kleine Gruppe die digitale Zukunft für alle.
Aber die persönlichen Meinungen oder Vorurteile der Entwickler spielen immer hinein, oder?
Klar, hinter den Systemen stecken Menschen. Die Mentalität einer Gesellschaft widerspiegelt sich entsprechend darin. Bei autoritären Staaten wie China geht es noch weiter. So kennt die chinesische KI Deepseek beispielsweise Taiwan nicht. Wenn Regierungen derart Einfluss auf die Modelle haben, ist das eine grosse Gefahr.
Die ETH und EPFL haben soeben ihr Sprachmodell veröffentlicht: Apertus. Es soll nach ethischen und datenschutzrechtlich korrekten Standards trainiert worden sein. Die Ergebnisse des Chatbots waren allerdings enttäuschend. Ist das der Preis für ethische KI?
Apertus ist ein Schweizer «Open Source Modell». Das heisst, der Code, die Architektur, die Trainingsdaten und Dokumentationen sind einsehbar. Apertus performt nicht so gut wie ChatGPT oder Gemini, weil diese mithilfe eines Milliardenbudgets gefördert werden. Dadurch können sie sich Zugriff auf massiv mehr Daten sowie Rechenpower verschaffen und werden von mehr KI-Entwicklern unterhalten. Dies ist der erste Wurf von Apertus. Umso wichtiger ist es, dass Apertus jetzt unser Feedback erhält, um sich zu verbessern. Apertus verkörpert die Demokratisierung von KI und ist ein tolles Beispiel, dass die Schweiz eine wichtige Rolle in der Künstlichen Intelligenz einnimmt.
Aktuell wächst die erste Generation mit KI auf. Sie sind Mutter. Wie gehen Sie damit um?
Es kommt vor, dass meine Tochter sagt: Frag doch einfach die Maschine. Aufgrund meiner Arbeit ist sie es gewohnt, dass eine KI mit mir spricht, sie sieht auch Programmcodes. Mir ist aber wichtig, dass bei ihr nicht der Eindruck entsteht, dass sich sämtliche Fragen an die KI delegieren lassen. Deshalb sage ich ihr immer: Zuerst überlegen wir mit dem Kopf. Auch versuche ich, die Bildschirmzeit minimal zu halten. Klar finden es Kinder lustig, ein Bild zu prompten. Aber beim Malen mit Stiften und Papier werden neurologisch viel mehr Verknüpfungen gemacht. Das fördert die Motorik und die Kreativität. Ich lasse meine Tochter KI nicht unbeaufsichtigt und häufig nutzen. Dies wäre, wie wenn man einem Kind den Schlüssel zu einem Auto gibt.
Gefahren birgt KI auch für Erwachsene, etwa durch Deepfakes. Wie schützt man sich davor?
Heute kann man mit einer Aufnahme von wenigen Sekunden eine Stimme klonen. Kriminelle Organisation machen das tagtäglich. Deshalb sollte man selbst bei unbekannten Schweizer Festnetznummern nicht abnehmen oder ansonsten abwarten, erstmals zuhören, jedoch niemals den Namen nennen. Wer kann, sollte zudem keine Bilder und Videos von sich im Internet kursieren lassen. Je mehr es davon gibt, desto einfacher lassen sich täuschend echte Deepfakes erstellen.
Wie können wir spezifisch Jugendliche vor Deepfakes schützen?
Kinder und Jugendliche müssen früh darüber aufklärt werden. Die Gefahr eines Deepfake ist real und die Folgen verheerend, sodass ich die Schulen in der Pflicht sehe. Sie hinken bei diesem Thema jedoch hinterher. In den USA ist das Fach KI obligatorisch. Kinder und Jugendliche müssen wissen, dass Stimmen geklont und täuschend echte Avatare nicht nur von Prominenten, sondern auch von Bezugspersonen existieren können.
Schadet uns die KI unter dem Strich mehr, als dass sie uns nutzt?
Nein, das würde ich nicht sagen. Die KI bringt in unzähligen Arbeitsbereichen einen grossen Zeitgewinn. Da die Maschinen uns viel abnehmen, werden die menschlichen Fähigkeiten wieder wichtig. Leadership oder soziale Kompetenzen gewinnen an Stellenwert, aber auch handwerkliches Können. Das schafft viele Chancen für neue Berufsbilder. Die Voraussetzung ist aber stets, dass wir die KI gutwillig, bewusst und richtig einsetzen. (bzbasel.ch)
