Digital
Künstliche Intelligenz

ChatGPT und Co. – US-Regierung nimmt Anbieter in die Pflicht

Gefährliche KIs: So nimmt die US-Regierung die Techkonzerne in die Pflicht

04.05.2023, 14:47
Mehr «Digital»

Angesichts der potenziellen Risiken bei der Weiterentwicklung Künstlicher Intelligenz (KI) will die US-Regierung Tech-Unternehmen in die Verantwortung nehmen.

Vor einem Treffen von Vizepräsidentin Kamala Harris mit den Chefs der US-Firmen Google, Microsoft, OpenAI und Anthropic am Donnerstag in Washington kündigte das Weisse Haus Richtlinien zum Umgang mit der Technologie an.

Die Technologie-Beauftragte der US-Regierung, Arati Prabhakar, sagte:

«Tech-Unternehmen haben eine grundlegende Verantwortung dafür, sicherzustellen, dass ihre Produkte sicher und geschützt sind und dass sie die Rechte der Menschen garantieren, bevor sie eingesetzt oder veröffentlicht werden.»
White House Office of Science and Technology Director Arati Prabhakar speaks at the Democracy Summit, Thursday, March 30, 2023, at the Convention Center in Washington. (AP Photo/Jacquelyn Martin)
Arat ...
Arati Prabhakar, Direktorin des White House Office of Science and Technology, bei einer Rede.archivBild: keystone

Was hat es mit den neuen Regeln auf sich?

Ziel der Leitlinien, die gemeinsam mit den KI-Schmieden bis zum Sommer erarbeitet werden sollen, sei es, das amerikanische Volk und die Bürgerrechte vor potenziellen Gefahren durch KI zu schützen und gleichzeitig die Vorteile der mächtigen Technologie auszuschöpfen.

Diese Grundlage für eine Regulierung müsse auch im Hinblick auf wesentlich leistungsstärkere Programme in der Zukunft geschaffen werden. Zur möglichen Festlegung globaler Standards sei auch die Zusammenarbeit unter anderem mit der Europäischen Union wichtig, die zuletzt bereits ähnliche Schritte unternommen hatte.

Mithilfe von maschinellem Lernen können nach Einschätzung von Expertinnen und Experten künftig sensationelle Fortschritte erreicht werden, etwa in der Wissenschaft – zum Beispiel in der Medizin – und Verkehrssicherheit.

Zugleich mehreren sich die Stimmen, die vor erheblichem Schadenspotenzial warnen.

Wo ist das Problem?

Aktuell sorgen besonders der Text-Automat ChatGPT, Googles Konkurrenz-Software Bard sowie Programme, die Bilder auf Basis von Text-Beschreibungen erzeugen können, für viel Aufsehen. Befürchtet wird, dass ihre Fähigkeiten für die Produktion und Verbreitung von Falschinformationen oder für andere schädliche Zwecke genutzt werden könnten.

Die Regierungsbeauftragte Prabhakar nannte mehrere konkrete Risiken – etwa bei der Cybersicherheit und dem Schutz von Grundrechten, zum Beispiel durch Echtzeitüberwachung von Menschen. Ganze Demokratien könnten mithilfe von KI untergraben und menschliche Arbeitskräfte in weiten Teilen der Wirtschaft durch Maschinen ersetzt werden.

Grossbritannien untersucht
Die britische Wettbewerbsbehörde hat am Donnerstag angekündigt, sie untersuche die Auswirkungen künstlicher Intelligenz auf Konsumenten, Unternehmen und die Wirtschaft. Und sie werde prüfen, ob neue Kontrollen für Technologien wie ChatGPT von OpenAI erforderlich seien, berichtete die Nachrichtenagentur Reuters.

Die plötzliche Popularität generativer KI-Anwendungen wie ChatGPT und Midjourney zeige eine Technologie auf, die die Art und Weise, wie Unternehmen und die Gesellschaft funktionieren, auf den Kopf stellen könnte.

Und die Schweiz?

(dsc/sda/dpa)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Wenn sich KI-Bilder viral verbreiten
1 / 15
Wenn sich KI-Bilder viral verbreiten
Nanu, wen haben wir denn da?
Auf Facebook teilenAuf X teilen
Aus dem SRF-Archiv: Skilager anno 1998
Video: srf
Das könnte dich auch noch interessieren:
5 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
5
Nvidia-Chef behauptet, es gebe Lösung für gefährliche KI-«Halluzinationen»
Das Problem sei nicht die generative KI, sondern der Mensch ...

Ein zentrales Problem der Verlässlichkeit von KI-Software wird sich nach Einschätzung von Nvidia-Chef Jensen Huang durchaus beheben lassen. Ein Weg sei, die Software die Informationen überprüfen zu lassen. «Halluzinationen sind sehr lösbar», behauptete Huang am Rande der Nvidia-Entwicklerkonferenz GTC am Dienstag. Als KI-Halluzinationen werden Fälle bezeichnet, in denen Software Dinge einfach erfindet.

Zur Story