Schweiz
Digital

Schweizer ETH-Forscher veröffentlichen neues KI-Sprachmodell

Die ETH-KI «Apertus» ist ein freies «Large Language Model» (LLM) und kann in zwei Versionen aus dem Internet heruntergeladen werden.
Die ETH-KI «Apertus» ist ein freies «Large Language Model» (LLM) und kann in zwei Versionen aus dem Internet heruntergeladen werden.bild: eth

«Apertus» kann Schweizerdeutsch – ETH-Forscher veröffentlichen neues KI-Sprachmodell

Mit «Apertus» reagieren Schweizer Forscherinnen und Forscher auf dominante kommerzielle KI-Systeme, die dafür kritisiert werden, nicht transparent genug zu sein.
02.09.2025, 10:0002.09.2025, 10:31
Mehr «Schweiz»

Das am Dienstag veröffentlichte Modell trägt den Namen «Apertus». Sowohl der Programmcode als auch die Trainingsdaten und die Architektur der Künstlichen Intelligenz (KI) seien öffentlich einsehbar, wie die beiden Eidgenössischen Technischen Hochschulen Zürich (ETH Zürich) und Lausanne (EPFL) mitteilten.

Damit unterscheide es sich von kommerziellen Systemen, von denen die meisten in den USA oder in China in nicht nachvollziehbaren Prozessen entwickelt worden seien, hiess es von den Forschenden.

Entwickelt und trainiert wurde das freie Schweizer Sprachmodell auf dem Supercomputer «Alps» am nationalen Supercomputer-Zentrum CSCS in Lugano.

Warum ist das wichtig?

«Die Offenheit soll eine breite Nutzung ermöglichen und Innovationen in Wissenschaft, Gesellschaft und Industrie fördern.»

Das Blackbox-Problem

Die Zutaten, die zur Herstellung kommerzieller KI-Systeme verwendet werden, werden geheim gehalten. «Und die Zahl der Menschen, die diese Geheimnisse tatsächlich aufdecken können, wird aufgrund der hohen Investitionen, die für die Entwicklung erforderlich sind, immer kleiner»: Das erklärte Antoine Bosselut von der EPFL, der das Projekt zusammen mit seinem EPFL-Kollegen Martin Jäggi und Imanol Schlag von der ETH Zürich leitet, an der öffentlichen Vorstellung von «Apertus».

Die von OpenAI und anderen Techunternehmen entwickelten KI-Modelle sind den Forschenden zufolge eine Blackbox. Es lässt sich kaum überprüfen, wohin die während der Nutzung entstehenden Daten fliessen. Auch ist es schwer nachzuvollziehen, ob die generierten Antworten möglicherweise manipuliert wurden, um eine bestimmte politische Sichtweise zu fördern.

Die Modelle öffentlich zugänglich zu machen, hat laut den Forschenden aber auch Vorteile für die Weiterentwicklung von KI. «Aus langjähriger Erfahrung wissen wir, dass diese Systeme in gewisser Weise immer Fehler aufweisen werden. Doch wenn wir die Bestandteile verstehen, aus denen diese Modelle trainiert werden, und wie sie aufgebaut sind, können wir die Schwachstellen dieser Systeme verbessern, um einige dieser Fehler abzumildern», erklärte Bosselut.

Was kann Apertus?

Chatbot oder Übersetzer

«Apertus» ist wie ChatGPT oder Copilot ein sogenanntes «Large Language Model» (LLM). Ein Chat-Interface liefern die Hochschulen allerdings nicht. Anders als bei bekannten KI-Sprachmodellen wie ChatGPT können Nutzerinnen und Nutzer also nicht direkt auf das System zugreifen.

Es soll aber für Entwicklerinnen und Entwickler als Baustein für künftige Anwendungen wie Chatbots oder Übersetzungssysteme dienen. Eine solche Zusammenarbeit haben die Forschenden bereits mit Swisscom.

Schweizerdeutsch und Rätoromanisch

Entwickelt und trainiert wurde es auf dem Supercomputer «Alps» am nationalen Supercomputer-Zentrum CSCS in Lugano. Dabei kamen 15 Billionen sogenannter Tokens aus über 1000 Sprachen zum Einsatz.

Ein Token ist eine kleine Einheit von Text – das kann ein Wort, ein Teil eines Wortes oder sogar ein einzelnes Zeichen sein – , die das Modell beim Lernen und Verarbeiten von Sprache nutzt.

Rund 40 Prozent der Daten stammen laut den Hochschulen nicht aus dem Englischen. Das Modell beherrscht laut den Forschenden auch Schweizerdeutsch und Rätoromanisch. Die Entwicklung von «Apertus» erfolgte im Rahmen der «Swiss AI Initiative», die von der EPFL und der ETH Zürich geleitet wird.

Das Basismodell ist gemäss den Entwicklern mit einem grossen Textdatensatz von über 1500 Sprachen trainiert worden – etwa 60 Prozent waren Englisch und 40 Prozent andere Sprachen – hinzukamen Code- und Mathematikdaten. Da Inhalte aus allen Sprachen und Kulturen vertreten sind, soll das resultierende Modell mit einer hohen globalen Anwendbarkeit punkten.

«Völlig offene Modelle ermöglichen Anwendungen, die ein hohes Mass an Vertrauenswürdigkeit gewährleisten, und sie sind notwendig, um die Forschung zu den Risiken und Chancen der KI voranzutreiben. Transparente Prozesse ermöglichen auch die Einhaltung der Rechtsvorschriften.»
Imanol Schlag, Forscher am ETH AI Center und Co-Leiter von Apertus

Apertus wird in zwei Grössen veröffentlicht – mit 8 Milliarden und mit 70 Milliarden Parametern – und damit können laut den Entwicklern die Bedürfnisse eines breiten Spektrums an Nutzerinnen und Nutzern erfüllt werden. Beide Sprachmodelle können über die Hugging-Face-Plattform heruntergeladen werden.

Die grössere LLM-Version gehöre zu den leistungsstärksten, vollständig offenen Modellen weltweit. Die Anzahl der Parameter spiegle die Fähigkeit eines Modells wider, zu lernen und komplexe Antworten zu erzeugen.

Anfang Juli war das Vorhaben von den Eidgenössisch-Technischen Hochschulen angekündigt worden.

Quellen

(dsc/pre/sda)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
35 Beweisfotos, die zeigen, dass KI-Fotos herrlich kurios sein können
1 / 37
35 Beweisfotos, die zeigen, dass KI-Fotos herrlich kurios sein können
Ein KI-generierter Trump beim Zubereiten der Urwalddroge Ayahuasca.
Auf Facebook teilenAuf X teilen
Wer genau hinschaut, sieht die nächste Katastrophe, die sich in der Ukraine anbahnt
Video: watson
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
9 Kommentare
Dein Kommentar
YouTube Link
0 / 600
Hier gehts zu den Kommentarregeln.
Die beliebtesten Kommentare
avatar
Molson
02.09.2025 10:28registriert Juni 2014
Für Berndeutsch wurde das Rechentempo künstlich um 80% gesenkt 🐻
667
Melden
Zum Kommentar
avatar
insert_brain_here
02.09.2025 10:15registriert Oktober 2019
„kann Schweizerdeutsch“

Aha, welches denn? 😄

Spass bei Seite: Tolle und sehr wichtige Leistung. Es darf nicht passieren dass AI von ein paar wenigen Techmilliardären - die zudem die Trainingsdaten hemmungslos überall zusammenklauen lassen - monopolisiert wird
311
Melden
Zum Kommentar
avatar
Chnörzli3000
02.09.2025 10:27registriert September 2023
Das gute ist, dass die besten wirklich offenen Modelle nur etwa zwei Jahre hinter den besten kommerziellen nachhängen. Da kann man als Gesellschaft mittelfristig noch mitkommen. Dieser Abstand darf aber nicht grösser werden, daher sind Investitionen wie diese absolut essenziell wichtig.
Mit viel Willen, unseren Fähigkeiten und der Tendenz, dass die Leistungssprünge kleiner werden, kann evtl. auch Boden gut gemacht werden.
210
Melden
Zum Kommentar
9
Wie gut ist dein Schulfranzösisch? Teste es im Quiz!
Zürcher Schüler sollen künftig wieder erst ab der Sek oder dem Gymi Französisch lernen. Dies fordert das Zürcher Kantonsparlament, eine entsprechende Motion wurde am Montag an die Regierung überwiesen.
Zur Story