Schweiz
Interview

Neuer AI Act der EU: Was die Regulierung von KI bringt

Robot and young woman face to face.
Künstliche Intelligenz wird in Zukunft nur noch wichtiger, deshalb hat die EU nun eine erste Gesetzesgrundlage geschaffen.Bild: E+
Interview

Der neue «AI Act» der EU – «KI ist für sich genommen weder gut noch schlecht»

Die EU reguliert den Einsatz von künstlicher Intelligenz in Hochrisikosystemen. Im Interview ordnet Rechtsprofessorin Nadja Braun Binder den AI Act ein – und sagt, warum Huskys ein Problem für KI darstellen.
16.07.2024, 05:54
Benjamin Rosch / ch media
Mehr «Schweiz»

Vor Kurzem hat die EU den sogenannten AI Act, ein grosses Regulierungspaket zu künstlicher Intelligenz verabschiedet. Worum geht es?
Nadja Braun Binder: In der EU war das Bedürfnis gewachsen, Rahmenbedingungen für künstliche Intelligenz zu schaffen. Es ging dabei um den Schutz von Grundrechten, Gesundheit und den Rechtsstaat, aber auch um die Förderung von Innovation. Die EU steht in einem weltweiten Wettstreit um die technologische Vorherrschaft und liefert nun den rechtlichen Rahmen, um KI als Schlüsseltechnologie zu nutzen. Das ist der politische bzw. wirtschaftliche Kontext. Juristisch betrachtet ist es eigentlich eine Produkt- und Marktzugangsregulierung. Man will sicherstellen, dass ein Produkt auf dem Markt keinen Schaden anrichten kann.

Nadja Braun Binder, Professorin für Öffentliches Recht an der Universität Basel.
Nadja Braun Binder, Professorin für Öffentliches Recht an der Universität Basel.Bild: uni basel

Der Schutz von Grundrechten, Gesundheit, die Demokratie – das klingt dramatisch. Muss man sich vor KI fürchten?
KI ist für sich genommen weder gut noch schlecht. Es kommt stark darauf an, wie und wofür sie eingesetzt wird.

In der Regulierung ist mehrfach von Hochrisiko-KI-Systemen die Rede. Was muss man sich darunter vorstellen?
Das ist das eigentliche Herz der KI-Verordnung. Es geht um Systeme, die potenziell sehr risikoreich sind. Falls beispielsweise KI beim Bewerten von Menschen für den Abschluss einer Krankenversicherung eingesetzt wird oder für die Auswahl von Personen in Bewerbungsverfahren oder wenn KI die Leistungen von Schülerinnen und Schülern benotet. Wenn KI eingesetzt wird, um Emotionen auf der Grundlage von Gesichtsbildern zu erkennen, würde das auch darunterfallen. Als hochriskant gelten auch KI-Systeme, die in sicherheitskritischen Bereichen, zum Beispiel in der Strom- oder Wasserversorgung eingesetzt werden.

Welchen Risiken will man denn vorbeugen?
Ganz allgemein: Die Befürchtung ist, dass man Menschen schaden kann. Nehmen wir den Gesundheitsbereich. KI-Systeme brauchen in der Regel viele Daten. Wenn diese nicht vorhanden oder nicht richtig sind, können falsche oder ungenaue Ergebnisse entstehen. Wenn diese dann für eine Diagnose oder Behandlung verwendet werden, kann das zu gesundheitlichen Schäden führen. Und weil KI-Systeme häufig sehr hoch skalieren, sind möglicherweise exponentiell viele Menschen betroffen.

Weil sich Fehler einschleichen?
Künstliche Intelligenz arbeitet mit Korrelationen, nicht Kausalität. Gerade bei der Bilderkennung gibt es prominente Beispiele. Eine KI war mit Bildern von Hunden und Wölfen trainiert worden und konnte die Bilder nach einiger Zeit sehr gut zuordnen. Dann ordnete das System plötzlich einen Husky als Wolf ein. Es hat sich herausgestellt, dass die KI gar nicht die Tiere erkannte, sondern bei weissem Hintergrund immer einen Wolf sah. Das lag daran, dass bei allen Wölfen auf den Trainingsbildern im Hintergrund Schnee lag. Somit war für die KI klar, dass der Husky auch als Wolf einzuordnen war, weil auf diesem Bild ebenfalls Schnee zu erkennen war. Im Medizinbereich kann Korrelation ein guter Indikator sein – aber sollte nicht über den Einzelfall bestimmen.

Die Regulierung will menschenzentrierte KI fördern. Ist das damit gemeint?
Damit ist gemeint, dass die KI den Menschen als Instrument dienen soll und dass die KI letztlich das Wohlergehen von Menschen verbessern soll. Konkret kann es zum Beispiel bedeuten, dass ein Mensch am Ende die KI überwacht.

Kann die Demokratie von künstlicher Intelligenz auch profitieren?
Ja. KI kann Diskriminierungen zutage fördern, derer man sich vorher gar nicht bewusst war.

Zum Beispiel?
In Österreich hat die Behörde für Arbeitslosenunterstützung einen Algorithmus eingesetzt, der basierend auf historischen Daten die Wiedereingliederungschancen von Personen auf dem Arbeitsmarkt berechnen sollte. Die KI hat perfekt funktioniert. Aber sie hat empfohlen, Frauen eine andere Unterstützung zukommen zu lassen als Männern. Die Daten, mit denen die KI gefüttert worden war, hatten der Maschine vermittelt: Frauen, selbst gut ausgebildete, haben zu wenig Aussichten auf dem Jobmarkt. Das war zwar historisch richtig, hätte aber zu diskriminierenden Massnahmen geführt, wenn Frauen konsequent anders behandelt worden wären als Männer. Dieser ganzen Dimension wurde man sich dank KI bewusst. Würde man hingegen die Empfehlung der KI unreflektiert übernehmen, würde man bestehende Diskriminierungen erst recht zementieren. Das ist eine Gefahr.

Jede KI ist so gut, wie sie von einem Menschen kontrolliert wird.
Ich würde es nicht so absolut formulieren. Aber man darf den Menschen nie wegdenken. Es ist wie mit selbstfahrenden Autos: Komplett autonome Fahrzeuge würden wir doch nur akzeptieren, wenn der Mensch im Notfall jederzeit das Steuer wieder übernehmen könnte. Die Schwierigkeit aber ist: Wenn wir 20 Jahre umherfahren, ohne je das Steuer zu übernehmen – wissen wir dann noch, wie das ginge? Dafür braucht es ein Bewusstsein.

Wie kann der Staat KI einsetzen?
KI macht vor allem dort Sinn, wo viele gleich gelagerte, standardisierte Fälle zu bearbeiten sind. Das kann in einer Steuerbehörde sein oder beim Erteilen von Baubewilligungen, beispielsweise.

Wird in Zukunft ein Computer Asylentscheide fällen?
Nein, das denke ich nicht. Je grösser der Ermessensspielraum, desto schwieriger wird es, KI einzusetzen. Zudem spielt auch die Datengrundlage eine Rolle. Bei einer Steuererklärung liegt im Prinzip alles vor, was es für eine Veranlagung braucht. Das ist bei einem Gespräch zur Lebensgeschichte eines Menschen anders.

KI umfasst jetzt schon die unterschiedlichsten Bereiche des Lebens. Zu reden gibt aktuell der Fall von Nationalrätin Sibel Arslan, die Nationalrat Andreas Glarner wegen eines Deepfake-Videos angezeigt hat. Möglicher Straftatbestand ist Identitätsmissbrauch, was nicht den Einsatz von KI voraussetzt. Braucht es ein KI-Gesetz in der Schweiz?
Es wäre sicher eine falsche Hoffnung, alles im Zusammenhang mit KI in ein einziges Gesetz zu schreiben – auch wenn ich diese Hoffnung manchmal antreffe. Wir haben bereits verschiedene Regeln, die auf KI anwendbar sind, auch wenn sie zu einem Zeitpunkt erlassen wurden, als KI noch kein Thema war. Wenn das Parlament Gesetze erlässt, dann sollten diese möglichst lange gelten können. Es wäre nicht demokratiefreundlich, wenn man Gesetze quasi jährlich auf den technologischen Fortschritt abstimmt. Gesetze müssen offener formuliert sein, um auch künftigen Generationen Rechtssicherheit zu bieten. Dies gelingt meiner Meinung nach oft gut. Einzelne Lücken, die nun aufgrund von KI sichtbar werden, müssen aber geschlossen werden. Der Bundesrat will bis Ende Jahr eine Auslegeordnung erarbeiten, ob und wie die Schweiz nachbessern muss.

Unabhängig davon: Die neue EU-Regulierung betrifft auch die Schweiz.
Ja. Es gilt das Marktortprinzip. Wer sein Produkt im EU-Markt anbietet, muss die dort geltenden Bestimmungen einhalten – was auf viele Schweizer Unternehmen zutreffen dürfte.

Aber wäre ein eigenes KI-Gesetz als Nachvollzug nicht einfacher?
Das ist aus meiner Sicht gar nicht die richtige Frage. Hintergrund der EU war es, den Binnenmarkt zu harmonisieren und Innovation zuzulassen. Das war die treibende Kraft. Bei uns sieht das ganz anders aus. Die Schweiz muss sich fragen, was sie mit der Regulierung von KI überhaupt erreichen will. Ein Bereich, in dem ein neues Gesetz allenfalls sinnvoll wäre, ist der Diskriminierungsschutz.

Wie meinen Sie das?
Die Schweizer Verfassung kennt ein Diskriminierungsverbot für Behörden, aber kein umfassendes Antidiskriminierungsgesetz, das auch den Schutz vor Diskriminierung durch Private erfasst. Das wird vielleicht notwendig im Zusammenhang mit KI – weil KI das Potenzial hat, ganz viele Menschen zu betreffen. (aargauerzeitung.ch)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Aktuelle Gefahren und zukünftige Risiken von KI
1 / 13
Aktuelle Gefahren und zukünftige Risiken von KI
Das ist der britisch-kanadische Informatiker und Psychologe Geoffrey Hinton, er gilt als «Pate» der künstlichen Intelligenz. Der renommierte Wissenschaftler warnt aber auch eindringlich vor den aktuellen und zukünftigen Gefahren der neuen Technologie ...
quelle: keystone / noah berger
Auf Facebook teilenAuf X teilen
KI-Hit: Nach Harry Potter in Berlin kommen Simpsons in «echt»
Video: watson
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
10 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
10
Polizei-Grosseinsatz in Hüntwangen ZH: Mann bedrohte seine Familie

In der Zürcher Gemeinde Hüntwangen lief diesen Nachmittag ein Grosseinsatz der Polizei. Dies bestätigte die Kantonspolizei Zürich gegenüber dem «Blick». Gemäss einem Augenzeugen waren schwer bewaffnete Polizisten im Einsatz.

Zur Story