Die Organe der Europäischen Union sind nicht gerade bekannt für ihre Geschwindigkeit. Doch am heutigen Mittwoch betrat das EU-Parlament tatsächlich weltweites Neuland: Die Abgeordneten stimmten für einen Entwurf, der im gesamten EU-Raum den Umgang mit künstlicher Intelligenz (KI) regeln soll. Tritt das Gesetz in Kraft, würde die EU damit zum ersten Erdteil der Welt, der KI reguliert.
Die Präsidentin des Parlaments, Roberta Metsola, sprach von «Rechtsvorschriften, die in den kommenden Jahren weltweit Massstäbe setzen werden». Doch was genau steht drin in dem sogenannten AI-Act – und welche Probleme gibt es noch mit den Vorgaben? Hier gibts einen Überblick:
Allgemein sieht der Entwurf vor, künstliche Intelligenzen in verschiedene Risikobereiche einzuordnen. Je nachdem, wie hoch das Risiko ist, gelten unterschiedliche Auflagen:
Künstliche Intelligenzen, die ein inakzeptables Risiko darstellen, werden verboten. Dazu gehören etwa alle Arten von Social-Scoring-Technologien. Diese werden in China schon seit Jahren dazu genutzt, Menschen anhand ihres sozialen Verhaltens zu bewerten und zu klassifizieren.
Ebenfalls nicht erlaubt sind Echtzeitnutzungen von biometrischen Daten, zum Beispiel KI-gestützte Geschichtserkennungssoftware. Aufzeichnungen dürfen dagegen genutzt werden, allerdings nur in der Strafverfolgung und wenn ein Richter die Erlaubnis erteilt.
Die höchste Sicherheitsstufe ist der Hochrisikobereich. Dazu gehören etwa KIs, die in der kritischen Infrastruktur zum Einsatz kommen. Ebenfalls zu diesem Bereich zählen KIs, die zur Beeinflussung von Wahlen genutzt werden können oder solche, die in grossen sozialen Netzwerken mit mehr als 45 Millionen Usern eingesetzt werden, etwa um neue Inhalte zu empfehlen.
Hier soll es strenge Kontrollen geben: Eine ständige menschliche Kontrolle muss gewährleistet sein, ebenso wie spezielle Sicherheitsmassnahmen. Zudem muss dokumentiert werden, mit welchen Datensätzen die KI «trainiert» wurde, also welche Rohdaten in das System eingespeist wurden.
Bei Anwendungen mit limitiertem Risiko wie etwa Chatbots soll es ausreichen, die Nutzerinnen und Nutzer darauf hinzuweisen, dass sie eine KI nutzen. Denn es ist wahrscheinlich, dass vielen Menschen die Nutzung von KI im Alltag gar nicht mehr bewusst ist.
Spätestens durch das Aufkommen von ChatGPT, das erstmals einem sehr breiten Publikum die Funktionen von KI nähergebracht hat, ist allerdings deutlich geworden, dass sich viele KIs nicht allgemein in Risikobereiche eingrenzen lassen, weil sie ein extrem breites Anwendungsfeld besitzen.
Für solche sogenannten Foundation Models sollen gesonderte Regeln gelten: Produziert eine künstliche Intelligenz zum Beispiel Bilder oder Texte, muss immer ersichtlich sein, dass die Inhalte nicht von Menschenhand gefertigt wurden. Auch muss die KI so gestaltet sein, dass das Erzeugen illegaler Inhalte nicht möglich ist.
Der Grundgedanke des Vorschlags, dass KI in grossen Teilen von menschlicher Hand überwacht und in Risikobereiche eingeteilt werden soll, wirft mehrere Fragen auf:
In der Kritik steht die Regelungen auch generell, weil nicht nur die Entwicklerseite eine Überregulierung befürchtet. Vor allem die Vorgaben für «Foundation Models» könnten mit enormen Kosten verbunden sein, die es auf europäischem Boden erheblich erschweren würden, KI-Start-ups zu gründen und zu betreiben. In der Folge könnten Entwickler weiter ihr Glück eher in Asien oder den USA suchen.
Gleichzeitig steht zu befürchten, dass die Vorgaben die grossen Techriesen wie Microsoft, Apple oder Google bevorteilen, die mit ihrem enormen Finanzkapital die EU-Vorgaben leichter erfüllen können.
Angenommen ist das Gesetz noch nicht. Im nächsten Schritt folgt jetzt der sogenannte Trilog. Dabei stimmen sich die drei EU-Organe Parlament, Kommission und Rat für eine gemeinsame Position ab. Die Verhandlungen dazu sollten bereits am Mittwochabend beginnen. Geplant ist, sich bis Jahresende auf ein gemeinsames Gesetz zu einigen.
Bereits 2021 hatte die EU-Kommission einen ersten Vorschlag zur Regulierung von KI vorgelegt. Das Papier wurde dann von den EU-Parlamentariern an einigen Stellen nachgeschärft und in der jetzigen Form im Mai im Justiz- und Binnenmarktausschuss beschlossen. Die Regelungen für «Foundation Models» wurden zudem neu mit aufgenommen.
Die führenden Fraktionen im EU-Parlament (EVP, Sozialdemokraten, Grüne und Liberale) hatten sich ursprünglich darauf geeinigt, einen gemeinsamen Vorschlag zu präsentieren. Die konservative EVP-Fraktion hatte sich allerdings schon früh eine weniger strenge Auslegung bei der Nutzung von biometrischen Daten gewünscht und daher einen Vorschlag eingereicht, der in bestimmten Situationen für die Strafverfolgung eine Echtzeitnutzung erlaubt.
Kurz vor der Abstimmung in Strassburg wurde dann deutlich, dass sich auch andere Fraktionen nicht an die Absprache hielten: Insgesamt wurden mehr als 30 Änderungsanträge für den Kompromiss aus den Ausschüssen eingereicht, auch aus den Reihen der Sozialdemokraten und Grünen. Letztendlich stimmte das Parlament jedoch für den ursprünglichen Vorschlag.
(t-online/dsc)