Vor Kurzem hat die EU den sogenannten AI Act, ein grosses Regulierungspaket zu künstlicher Intelligenz verabschiedet. Worum geht es?
Nadja Braun Binder: In der EU war das Bedürfnis gewachsen, Rahmenbedingungen für künstliche Intelligenz zu schaffen. Es ging dabei um den Schutz von Grundrechten, Gesundheit und den Rechtsstaat, aber auch um die Förderung von Innovation. Die EU steht in einem weltweiten Wettstreit um die technologische Vorherrschaft und liefert nun den rechtlichen Rahmen, um KI als Schlüsseltechnologie zu nutzen. Das ist der politische bzw. wirtschaftliche Kontext. Juristisch betrachtet ist es eigentlich eine Produkt- und Marktzugangsregulierung. Man will sicherstellen, dass ein Produkt auf dem Markt keinen Schaden anrichten kann.
Der Schutz von Grundrechten, Gesundheit, die Demokratie – das klingt dramatisch. Muss man sich vor KI fürchten?
KI ist für sich genommen weder gut noch schlecht. Es kommt stark darauf an, wie und wofür sie eingesetzt wird.
In der Regulierung ist mehrfach von Hochrisiko-KI-Systemen die Rede. Was muss man sich darunter vorstellen?
Das ist das eigentliche Herz der KI-Verordnung. Es geht um Systeme, die potenziell sehr risikoreich sind. Falls beispielsweise KI beim Bewerten von Menschen für den Abschluss einer Krankenversicherung eingesetzt wird oder für die Auswahl von Personen in Bewerbungsverfahren oder wenn KI die Leistungen von Schülerinnen und Schülern benotet. Wenn KI eingesetzt wird, um Emotionen auf der Grundlage von Gesichtsbildern zu erkennen, würde das auch darunterfallen. Als hochriskant gelten auch KI-Systeme, die in sicherheitskritischen Bereichen, zum Beispiel in der Strom- oder Wasserversorgung eingesetzt werden.
Welchen Risiken will man denn vorbeugen?
Ganz allgemein: Die Befürchtung ist, dass man Menschen schaden kann. Nehmen wir den Gesundheitsbereich. KI-Systeme brauchen in der Regel viele Daten. Wenn diese nicht vorhanden oder nicht richtig sind, können falsche oder ungenaue Ergebnisse entstehen. Wenn diese dann für eine Diagnose oder Behandlung verwendet werden, kann das zu gesundheitlichen Schäden führen. Und weil KI-Systeme häufig sehr hoch skalieren, sind möglicherweise exponentiell viele Menschen betroffen.
Weil sich Fehler einschleichen?
Künstliche Intelligenz arbeitet mit Korrelationen, nicht Kausalität. Gerade bei der Bilderkennung gibt es prominente Beispiele. Eine KI war mit Bildern von Hunden und Wölfen trainiert worden und konnte die Bilder nach einiger Zeit sehr gut zuordnen. Dann ordnete das System plötzlich einen Husky als Wolf ein. Es hat sich herausgestellt, dass die KI gar nicht die Tiere erkannte, sondern bei weissem Hintergrund immer einen Wolf sah. Das lag daran, dass bei allen Wölfen auf den Trainingsbildern im Hintergrund Schnee lag. Somit war für die KI klar, dass der Husky auch als Wolf einzuordnen war, weil auf diesem Bild ebenfalls Schnee zu erkennen war. Im Medizinbereich kann Korrelation ein guter Indikator sein – aber sollte nicht über den Einzelfall bestimmen.
Die Regulierung will menschenzentrierte KI fördern. Ist das damit gemeint?
Damit ist gemeint, dass die KI den Menschen als Instrument dienen soll und dass die KI letztlich das Wohlergehen von Menschen verbessern soll. Konkret kann es zum Beispiel bedeuten, dass ein Mensch am Ende die KI überwacht.
Kann die Demokratie von künstlicher Intelligenz auch profitieren?
Ja. KI kann Diskriminierungen zutage fördern, derer man sich vorher gar nicht bewusst war.
Zum Beispiel?
In Österreich hat die Behörde für Arbeitslosenunterstützung einen Algorithmus eingesetzt, der basierend auf historischen Daten die Wiedereingliederungschancen von Personen auf dem Arbeitsmarkt berechnen sollte. Die KI hat perfekt funktioniert. Aber sie hat empfohlen, Frauen eine andere Unterstützung zukommen zu lassen als Männern. Die Daten, mit denen die KI gefüttert worden war, hatten der Maschine vermittelt: Frauen, selbst gut ausgebildete, haben zu wenig Aussichten auf dem Jobmarkt. Das war zwar historisch richtig, hätte aber zu diskriminierenden Massnahmen geführt, wenn Frauen konsequent anders behandelt worden wären als Männer. Dieser ganzen Dimension wurde man sich dank KI bewusst. Würde man hingegen die Empfehlung der KI unreflektiert übernehmen, würde man bestehende Diskriminierungen erst recht zementieren. Das ist eine Gefahr.
Jede KI ist so gut, wie sie von einem Menschen kontrolliert wird.
Ich würde es nicht so absolut formulieren. Aber man darf den Menschen nie wegdenken. Es ist wie mit selbstfahrenden Autos: Komplett autonome Fahrzeuge würden wir doch nur akzeptieren, wenn der Mensch im Notfall jederzeit das Steuer wieder übernehmen könnte. Die Schwierigkeit aber ist: Wenn wir 20 Jahre umherfahren, ohne je das Steuer zu übernehmen – wissen wir dann noch, wie das ginge? Dafür braucht es ein Bewusstsein.
Wie kann der Staat KI einsetzen?
KI macht vor allem dort Sinn, wo viele gleich gelagerte, standardisierte Fälle zu bearbeiten sind. Das kann in einer Steuerbehörde sein oder beim Erteilen von Baubewilligungen, beispielsweise.
Wird in Zukunft ein Computer Asylentscheide fällen?
Nein, das denke ich nicht. Je grösser der Ermessensspielraum, desto schwieriger wird es, KI einzusetzen. Zudem spielt auch die Datengrundlage eine Rolle. Bei einer Steuererklärung liegt im Prinzip alles vor, was es für eine Veranlagung braucht. Das ist bei einem Gespräch zur Lebensgeschichte eines Menschen anders.
KI umfasst jetzt schon die unterschiedlichsten Bereiche des Lebens. Zu reden gibt aktuell der Fall von Nationalrätin Sibel Arslan, die Nationalrat Andreas Glarner wegen eines Deepfake-Videos angezeigt hat. Möglicher Straftatbestand ist Identitätsmissbrauch, was nicht den Einsatz von KI voraussetzt. Braucht es ein KI-Gesetz in der Schweiz?
Es wäre sicher eine falsche Hoffnung, alles im Zusammenhang mit KI in ein einziges Gesetz zu schreiben – auch wenn ich diese Hoffnung manchmal antreffe. Wir haben bereits verschiedene Regeln, die auf KI anwendbar sind, auch wenn sie zu einem Zeitpunkt erlassen wurden, als KI noch kein Thema war. Wenn das Parlament Gesetze erlässt, dann sollten diese möglichst lange gelten können. Es wäre nicht demokratiefreundlich, wenn man Gesetze quasi jährlich auf den technologischen Fortschritt abstimmt. Gesetze müssen offener formuliert sein, um auch künftigen Generationen Rechtssicherheit zu bieten. Dies gelingt meiner Meinung nach oft gut. Einzelne Lücken, die nun aufgrund von KI sichtbar werden, müssen aber geschlossen werden. Der Bundesrat will bis Ende Jahr eine Auslegeordnung erarbeiten, ob und wie die Schweiz nachbessern muss.
Unabhängig davon: Die neue EU-Regulierung betrifft auch die Schweiz.
Ja. Es gilt das Marktortprinzip. Wer sein Produkt im EU-Markt anbietet, muss die dort geltenden Bestimmungen einhalten – was auf viele Schweizer Unternehmen zutreffen dürfte.
Aber wäre ein eigenes KI-Gesetz als Nachvollzug nicht einfacher?
Das ist aus meiner Sicht gar nicht die richtige Frage. Hintergrund der EU war es, den Binnenmarkt zu harmonisieren und Innovation zuzulassen. Das war die treibende Kraft. Bei uns sieht das ganz anders aus. Die Schweiz muss sich fragen, was sie mit der Regulierung von KI überhaupt erreichen will. Ein Bereich, in dem ein neues Gesetz allenfalls sinnvoll wäre, ist der Diskriminierungsschutz.
Wie meinen Sie das?
Die Schweizer Verfassung kennt ein Diskriminierungsverbot für Behörden, aber kein umfassendes Antidiskriminierungsgesetz, das auch den Schutz vor Diskriminierung durch Private erfasst. Das wird vielleicht notwendig im Zusammenhang mit KI – weil KI das Potenzial hat, ganz viele Menschen zu betreffen. (aargauerzeitung.ch)