Digital
Künstliche Intelligenz

KI-Risiken: Experten warnen, könnten Kontrolle über KI-Systeme verlieren

KI-Forscherin Dawn Song.
Die Informatikprofessorin Dawn Song warnt vor «extremen KI-Risiken». Screenshot: YouTube

KI-Experten warnen vor «Auslöschung der Menschheit» – das steckt dahinter

Erneut schlagen renommierte Expertinnen und Experten wegen des Vorgehens der KI-Entwickler Alarm. Und sie kurbeln damit – wahrscheinlich ungewollt – auch den KI-Hype an.
22.05.2024, 18:1223.05.2024, 08:23
Mehr «Digital»

Angesehenen Experten für Künstliche Intelligenz (KI) haben erneut eindringlich vor Gefahren der Technologie gewarnt. Mögliche Risiken seien Cyberattacken, gesellschaftliche Manipulation, allgegenwärtige Überwachung und gar die «Auslöschung der Menschheit».

«Ohne ausreichende Vorsicht könnten wir unwiederbringlich die Kontrolle über autonome KI-Systeme verlieren», schrieben die Forscher in einem Text in der neuen Ausgabe der Zeitschrift «Science» (siehe Quellen).

«Viele Risiken könnten sich bald verstärken und neue Risiken schaffen, wenn Unternehmen an der Entwicklung autonomer KI arbeiten.»

Von wem stammt die Warnung?

Unter den Autoren sind renommierte Wissenschaftler wie der britische Informatiker und Kognitionspsychologe Geoffrey Hinton, der chinesische Informatiker Andrew Yao und die chinesischstämmige US-Informatikerin und Cybersicherheitexpertin Dawn Song. Sie zählen zu den führenden Köpfen der KI-Forschung.

1 / 13
Aktuelle Gefahren und zukünftige Risiken von KI
Das ist der britisch-kanadische Informatiker und Psychologe Geoffrey Hinton, er gilt als «Pate» der künstlichen Intelligenz. Der renommierte Wissenschaftler warnt aber auch eindringlich vor den aktuellen und zukünftigen Gefahren der neuen Technologie ...
quelle: keystone / noah berger
Auf Facebook teilenAuf X teilen

Wovor warnen die Fachleute konkret?

Den Autoren des Textes in «Science» machen speziell autonome KI-Systeme Sorgen, die zum Beispiel selbstständig Computer nutzen können, um die ihnen gestellten Ziele zu erreichen.

Die Fachleute argumentieren, dass es auch bei Programmen mit guten Absichten unvorhergesehene Nebeneffekte geben könne. Denn so, wie das Training von KI-Software laufe, halte sie sich zwar eng an ihre Spezifikationen – habe aber kein Verständnis dafür, welches Ergebnis dabei herauskommen soll. «Sobald autonome KI-Systeme unerwünschte Ziele verfolgen, könnten wir nicht mehr in der Lage sein, sie unter Kontrolle zu behalten», heisst es in dem Text.

«Wir wissen nicht genau, wie sich die Zukunft der KI entwickeln wird. Wir müssen jedoch die Möglichkeit ernst nehmen, dass in diesem oder im nächsten Jahrzehnt hochleistungsfähige generalistische KI-Systeme entwickelt werden, die die menschlichen Fähigkeiten in vielen kritischen Bereichen übertreffen. Was passiert dann?»

An die Politik gerichtet, heisst es:

«Wir brauchen dringend nationale Institutionen und internationale Governance, um Standards durchzusetzen, die Rücksichtslosigkeit und Missbrauch verhindern. Viele Technologiebereiche, von Pharmazeutika über Finanzsysteme bis hin zur Kernenergie, zeigen, dass die Gesellschaft staatliche Aufsicht benötigt und diese effektiv nutzt, um Risiken zu reduzieren.»

Um mit dem rasanten Fortschritt Schritt zu halten und schnell veraltete, unflexible Gesetze zu vermeiden, benötigten die Verantwortlichen «starkes technisches Fachwissen und die Autorität, schnell zu handeln».

Ist das wirklich neu?

Nein. Ähnlich dramatische Warnungen gab es schon mehrfach, auch bereits im vergangenen Jahr.

Diesmal passt die Veröffentlichung zeitlich zum KI-Gipfel in Seoul. Zum Auftakt des zweitägigen Treffens am Dienstag sicherten unter anderem US-Techkonzerne wie Google, Meta und Microsoft einen verantwortungsvollen Umgang mit der Technologie zu.

Die Frage, ob die ChatGPT-Entwicklerfirma OpenAI als Vorreiter bei KI-Technologie verantwortungsvoll genug vorgeht, war am Wochenende nochmal stärker in den Fokus gerückt. Der Entwickler Jan Leike, der bei OpenAI dafür zuständig war, KI-Software sicher für Menschen zu machen, kritisierte nach seinem Rücktritt Gegenwind aus der Chefetage.

In den vergangenen Jahren seien «glitzernde Produkte» der Sicherheit vorgezogen worden, schrieb Leike bei X. Dabei sei «Software zu entwickeln, die schlauer als Menschen ist, eine von Natur aus gefährliche Unternehmung», warnte er. Man müsse dringend herausfinden, wie man KI-Systeme kontrollieren könne, «die viel smarter als wir sind».

OpenAI-Chef Sam Altman versicherte danach, seine Firma fühle sich verpflichtet, mehr für die Sicherheit von KI-Software zu tun.

Was erwidern kritische Stimmen?

Zu stark in die Zukunft gedacht

Der KI-Forschungschef des Facebook-Konzerns Meta, Yann LeCun, konterte, für solche Dringlichkeit müssten sich zunächst auch nur andeutungsweise Systeme abzeichnen, «die schlauer als eine Hauskatze sind».

Momentan sei es so, als würde jemand im Jahr 1925 warnen, man müsse dringend den Umgang mit Flugzeugen lernen, die hunderte Passagiere mit Schallgeschwindigkeit über den Ozean befördern.

Es werde viele Jahre dauern, bis die KI-Technologie so schlau wie Menschen sein werde – und ähnlich wie bei Flugzeugen würden die Sicherheitsvorkehrungen damit schrittweise einhergehen.

Hingegen bestehen wegen der bereits verfügbaren Technologie, die unter der Bezeichnung generative KI bekannt ist, diverse konkrete Gefahren. Mit KI-Bildgeneratoren lassen sich etwa Deepfakes erstellen, um Desinformation zu verbreiten und Leute negativ zu beeinflussen. So versucht Russland mit solchen Attacken, die westliche Unterstützung für die Ukraine zu schwächen.

Zu erwähnen ist auch noch die fragwürdige Vorgehensweise grosser Entwicklerfirmen wie OpenAI, die auf billige menschliche Arbeitskraft, vornehmlich in Schwellenländern, setzen, um KI-Fehler auszumerzen.

Und jetzt du?

Wie schätzt du die Lage ein? Was sind die grössten gesellschaftlichen Bedrohungen durch KI? Und wie soll der Staat darauf reagieren?

Schreib uns via Kommentarfunktion!

Quellen

(dsc/sda/dpa)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Wenn sich KI-Bilder viral verbreiten
1 / 15
Wenn sich KI-Bilder viral verbreiten
Nanu, wen haben wir denn da?
Auf Facebook teilenAuf X teilen
In Deckung! Diese Überwachungskamera ist ein automatisches Geschütz
Video: watson
Das könnte dich auch noch interessieren:
152 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
pontian
22.05.2024 19:09registriert Januar 2016
Also ich finde, das ist alles übertrieben und Panikmache.

(Geschrieben von ChatGPT 6.0)
14019
Melden
Zum Kommentar
avatar
Acai
22.05.2024 19:13registriert März 2017
Wenn plötzlich Arnold Schwarzenegger vor meiner Haustüre steht, dann weiss ich, dass es bereits zu spät ist.
986
Melden
Zum Kommentar
avatar
Molson
22.05.2024 19:13registriert Juni 2014
Macht Euch mal keine Sorgen, ich denke Skynet wird das dann schon richten….
8211
Melden
Zum Kommentar
152
Beschwerden gegen Meta wegen KI-Training mit Nutzerdaten eingelegt

Der Meta-Konzern, zu dem Facebook und Instagram gehören, will seine KI-Modelle künftig mit Nutzer-Beiträgen trainieren. Doch Datenschützern geht das zu weit.

Zur Story