Eine Reihe führender Expertinnen und Experten für Künstliche Intelligenz sieht in der Technologie eine potenzielle Gefahr für die Menschheit. In einer Stellungnahme rufen die Unterzeichnenden dazu auf, die Risiken ernst zu nehmen.
Die Botschaft, die auf der Website einer Nonprofit-Organisation veröffentlicht wurde, besteht nur aus einem Satz:
Die Organisation nennt als mögliche Gefahren von Künstlicher Intelligenz ihren Einsatz in der Kriegsführung, etwa in der Luft oder durch die Entwicklung neuer Chemiewaffen.
Auch warnt das in San Francisco ansässige Center for AI Safety (Zentrum für KI-Sicherheit) etwa vor der Verbreitung von Falschinformationen mithilfe der Technologie sowie einer Zukunft, in der die Menschheit komplett von Maschinen abhängig werden könnte.
Zu den Unterzeichnern der kurzen Stellungnahme auf der Website gehört auch der Chef des ChatGPT-Erfinders OpenAI, Sam Altman. Der Chatbot ChatGPT, der Sätze auf dem Niveau eines Menschen formulieren kann, löste in den vergangenen Monaten einen neuen Hype rund um KI aus.
Vor einigen Wochen hatte bereits eine andere Organisation einen unter anderem von Tech-Milliardär Elon Musk unterzeichneten offenen Brief veröffentlicht, in dem eine sechsmonatige Pause bei der Entwicklung von Künstlicher Intelligenz vorgeschlagen wurde.
Ziel der Auszeit soll sein, Regulierungsansätze für die Technologie zu finden. Später wurde bekannt, dass Musk kurz davor eine eigene KI-Firma gegründet hatte.
Unterdessen will die EU den ChatGPT-Entwickler OpenAI für eine freiwillige Selbstkontrolle der KI-Industrie gewinnen. Daher werde sich Industriekommissar Thierry Breton in den kommenden Wochen mit Firmenchef Sam Altman in San Francisco treffen, teilte die Kommission mit.
Breton hatte vergangene Woche eine entsprechende Initiative vorgestellt. Wegen der rasanten Entwicklung dieser Technologie solle damit die Zeit bis zur Verabschiedung des «AI Act» durch die Staatengemeinschaft überbrückt werden.
Auf der Tagesordnung des Gesprächs zwischen Breton und Altman steht weiteren Angaben zufolge auch die Umsetzung der geplanten gesetzlichen EU-Regeln.
Altman hatte unlängst für den Fall einer Überregulierung der Branche mit einem Rückzug seines Unternehmens aus Europa gedroht. Er hatte seine Aussage aber kurz darauf wieder zurückgenommen.
(t-online/dsc)
Alles was ich lese ist wie Altman Regulierung fordert, die ihn minimal beschränkt, aber der neuen Konkurrenz möglichst viel Steine in den Weg legt.
Wären seine Feuerrufe auch nur im geringsten ernst gemeint, würde sich “seine” OpenAI als momentan grösster Treiber der Technologie der LLM’s einfach auflösen oder eine Kurskorrektur einleiten.
Schade geben die meisten Medien momentan Altmans Aussagen nur kritik- und wertungslos wieder.