Digital
Analyse

Die EU erarbeitet weltweit erste KI-Vorschriften – das musst du wissen

Biometrische Gesichtserkennung von künstlichen Intelligenzen könnte in der EU künftig verboten werden.
Und plötzlich ist Europa Vorreiter: Biometrische Gesichtserkennung von künstlichen Intelligenzen soll künftig verboten werden.Bild: Shutterstock
Analyse

Die EU erarbeitet weltweit erste KI-Vorschriften – das musst du wissen

Die Verhandlungen waren kompliziert. Doch die Europäische Union (EU) ist einem Gesetz zur Regulierung künstlicher Intelligenz einen Schritt nähergekommen. Hier erfährst du, was gelten soll.
14.06.2023, 20:11
Mehr «Digital»
Ein Artikel von
t-online

Die Organe der Europäischen Union sind nicht gerade bekannt für ihre Geschwindigkeit. Doch am heutigen Mittwoch betrat das EU-Parlament tatsächlich weltweites Neuland: Die Abgeordneten stimmten für einen Entwurf, der im gesamten EU-Raum den Umgang mit künstlicher Intelligenz (KI) regeln soll. Tritt das Gesetz in Kraft, würde die EU damit zum ersten Erdteil der Welt, der KI reguliert.

Die Präsidentin des Parlaments, Roberta Metsola, sprach von «Rechtsvorschriften, die in den kommenden Jahren weltweit Massstäbe setzen werden». Doch was genau steht drin in dem sogenannten AI-Act – und welche Probleme gibt es noch mit den Vorgaben? Hier gibts einen Überblick:

Und plötzlich ist Europa Vorreiter.

Wie soll künstliche Intelligenz reguliert werden?

Allgemein sieht der Entwurf vor, künstliche Intelligenzen in verschiedene Risikobereiche einzuordnen. Je nachdem, wie hoch das Risiko ist, gelten unterschiedliche Auflagen:

Künstliche Intelligenzen, die ein inakzeptables Risiko darstellen, werden verboten. Dazu gehören etwa alle Arten von Social-Scoring-Technologien. Diese werden in China schon seit Jahren dazu genutzt, Menschen anhand ihres sozialen Verhaltens zu bewerten und zu klassifizieren.

Ebenfalls nicht erlaubt sind Echtzeitnutzungen von biometrischen Daten, zum Beispiel KI-gestützte Geschichtserkennungssoftware. Aufzeichnungen dürfen dagegen genutzt werden, allerdings nur in der Strafverfolgung und wenn ein Richter die Erlaubnis erteilt.

Was gilt als Hochrisikobereich?

Die höchste Sicherheitsstufe ist der Hochrisikobereich. Dazu gehören etwa KIs, die in der kritischen Infrastruktur zum Einsatz kommen. Ebenfalls zu diesem Bereich zählen KIs, die zur Beeinflussung von Wahlen genutzt werden können oder solche, die in grossen sozialen Netzwerken mit mehr als 45 Millionen Usern eingesetzt werden, etwa um neue Inhalte zu empfehlen.

Hier soll es strenge Kontrollen geben: Eine ständige menschliche Kontrolle muss gewährleistet sein, ebenso wie spezielle Sicherheitsmassnahmen. Zudem muss dokumentiert werden, mit welchen Datensätzen die KI «trainiert» wurde, also welche Rohdaten in das System eingespeist wurden.

epa10690248 European Parliament President Roberta Metsola speaks during a session at the European Parliament in Strasbourg, France, 14 June 2023. The session runs from 12 to 15 June. EPA/JULIEN WARNAN ...
Roberta Metsola, Präsidentin des EU-Parlaments.Bild: keystone

Was ist mit der Kennzeichung von KI-generierten Inhalten?

Bei Anwendungen mit limitiertem Risiko wie etwa Chatbots soll es ausreichen, die Nutzerinnen und Nutzer darauf hinzuweisen, dass sie eine KI nutzen. Denn es ist wahrscheinlich, dass vielen Menschen die Nutzung von KI im Alltag gar nicht mehr bewusst ist.

Spätestens durch das Aufkommen von ChatGPT, das erstmals einem sehr breiten Publikum die Funktionen von KI nähergebracht hat, ist allerdings deutlich geworden, dass sich viele KIs nicht allgemein in Risikobereiche eingrenzen lassen, weil sie ein extrem breites Anwendungsfeld besitzen.

Für solche sogenannten Foundation Models sollen gesonderte Regeln gelten: Produziert eine künstliche Intelligenz zum Beispiel Bilder oder Texte, muss immer ersichtlich sein, dass die Inhalte nicht von Menschenhand gefertigt wurden. Auch muss die KI so gestaltet sein, dass das Erzeugen illegaler Inhalte nicht möglich ist.

Wo liegen die Schwachstellen des Gesetzes?

Der Grundgedanke des Vorschlags, dass KI in grossen Teilen von menschlicher Hand überwacht und in Risikobereiche eingeteilt werden soll, wirft mehrere Fragen auf:

  • Erstens ist noch unklar, welche Behörden in welchem Umfang diese Aufgaben übernehmen. Im Gespräch ist etwa, dass die EU eine übergreifende Kontrollinstanz schafft. Genauso könnten aber die Länder einzeln die Regelung umsetzen.
  • Zweitens ist kaum absehbar, wie und wohin sich künstliche Intelligenzen in den kommenden Jahren entwickeln werden, wodurch die Regularien möglicherweise permanent angepasst werden müssen.

In der Kritik steht die Regelungen auch generell, weil nicht nur die Entwicklerseite eine Überregulierung befürchtet. Vor allem die Vorgaben für «Foundation Models» könnten mit enormen Kosten verbunden sein, die es auf europäischem Boden erheblich erschweren würden, KI-Start-ups zu gründen und zu betreiben. In der Folge könnten Entwickler weiter ihr Glück eher in Asien oder den USA suchen.

Gleichzeitig steht zu befürchten, dass die Vorgaben die grossen Techriesen wie Microsoft, Apple oder Google bevorteilen, die mit ihrem enormen Finanzkapital die EU-Vorgaben leichter erfüllen können.

Wie geht es nach der Abstimmung weiter?

Angenommen ist das Gesetz noch nicht. Im nächsten Schritt folgt jetzt der sogenannte Trilog. Dabei stimmen sich die drei EU-Organe Parlament, Kommission und Rat für eine gemeinsame Position ab. Die Verhandlungen dazu sollten bereits am Mittwochabend beginnen. Geplant ist, sich bis Jahresende auf ein gemeinsames Gesetz zu einigen.

Welche Positionen gab es im EU-Parlament?

Bereits 2021 hatte die EU-Kommission einen ersten Vorschlag zur Regulierung von KI vorgelegt. Das Papier wurde dann von den EU-Parlamentariern an einigen Stellen nachgeschärft und in der jetzigen Form im Mai im Justiz- und Binnenmarktausschuss beschlossen. Die Regelungen für «Foundation Models» wurden zudem neu mit aufgenommen.

Die führenden Fraktionen im EU-Parlament (EVP, Sozialdemokraten, Grüne und Liberale) hatten sich ursprünglich darauf geeinigt, einen gemeinsamen Vorschlag zu präsentieren. Die konservative EVP-Fraktion hatte sich allerdings schon früh eine weniger strenge Auslegung bei der Nutzung von biometrischen Daten gewünscht und daher einen Vorschlag eingereicht, der in bestimmten Situationen für die Strafverfolgung eine Echtzeitnutzung erlaubt.

Kurz vor der Abstimmung in Strassburg wurde dann deutlich, dass sich auch andere Fraktionen nicht an die Absprache hielten: Insgesamt wurden mehr als 30 Änderungsanträge für den Kompromiss aus den Ausschüssen eingereicht, auch aus den Reihen der Sozialdemokraten und Grünen. Letztendlich stimmte das Parlament jedoch für den ursprünglichen Vorschlag.

Quellen

(t-online/dsc)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Wie erkennt man Deepfakes?
1 / 9
Wie erkennt man Deepfakes?
Deepfakes sind realistisch wirkende digitale Medieninhalte, die mithilfe von künstlicher Intelligenz (KI) erstellt wurden. Das Erkennen solcher Fake-Bilder wird immer schwieriger...
Auf Facebook teilenAuf X teilen
Brandgefahr bei Akkus. Das tust du im Ernstfall.
Video: srf
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
22 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
22
«Hawk Tuah»-Girl lanciert Kryptowährung – und hat nun Ärger am Hals

Die Tatsache, dass eine junge Frau mit der Aussage, man solle doch beim Oralsex mit einem Mann auf dessen Glied spucken, berühmt werden kann, ist bereits eine Eigenheit unseres von Social Media geprägten Zeitalters.

Zur Story