Digital
Schweiz

Schweizer Forscher entschlüsseln Denkprozesse von KI

«Blackbox» knacken: Schweizer Forscher entschlüsseln Denkprozesse von KI

23.03.2023, 07:3323.03.2023, 07:42
Mehr «Digital»
«Wie können wir einer Maschine vertrauen, ohne die Grundlage ihres Denkens zu verstehen?»
Prof. Christian Lovis

Ein internationales Forschungsteam unter der Leitung der Universität Genf (Unige) hat eine neue Methode zur Entschlüsselung des Denkens von Künstlichen Intelligenzen entwickelt. Dies ist laut den Forschenden besonders wichtig für Situationen, in denen selbstlernende Computerprogramme Entscheidungen mit Auswirkungen auf Menschenleben treffen.

«Die Funktionsweise dieser Algorithmen ist, gelinde gesagt, undurchsichtig», sagte Studienleiter Christian Lovis von der Unige in einer Mitteilung der Hochschule vom Mittwoch. «Wie können wir einer Maschine vertrauen, ohne die Grundlage ihres Denkens zu verstehen?»

Künstliche Intelligenzen (KI) werden mit grossen Datenmengen trainiert. Wie bei einem Kleinkind, das seine Muttersprache lernt, ohne sich den Grammatikregeln bewusst zu sein, können die KI-Algorithmen durch das selbstständige Abgleichen vieler Eingabedaten lernen, die richtige Auswahl zu treffen.

Wie die Algorithmen dieser selbstlernenden Computer ihre Eingabedaten intern darstellen und verarbeiten, ist jedoch eine «Black Box». Um diese zu erhellen, gibt es sogenannte Interpretationsmethoden. Sie zeigen, welche Daten und Faktoren für die Entscheidungen der KI ausschlaggebend sind.

Welcher Ansatz stimmt?

In den letzten Jahren wurden verschiedene solche Methoden entwickelt. Diese Interpretierbarkeitsmethoden führen jedoch oft zu unterschiedlichen Ergebnissen, was die Frage aufwirft, welcher Ansatz der richtige ist. Die Auswahl eines Interpretierbarkeitsansatzes aus der Vielzahl der verfügbaren Ansätze für einen bestimmten Zweck kann daher schwierig sein, wie in der Studie festgestellt wird.

Die von Forschenden der Universität Genf, des Universitätsspitals Genf (HUG) und der National University of Singapore (NUS) entwickelte neue Methode kann die Zuverlässigkeit verschiedener solcher Methoden testen. Die Ergebnisse wurden kürzlich in der Fachzeitschrift «Nature Machine Intelligence» veröffentlicht.

Für die Zukunft plant das Team nun, seine Methode in «einem klinischen Umfeld» zu testen, wo die Besorgnis über KI nach wie vor weit verbreitet sei.

«Unsere Studie konzentriert sich auf die Bewertung von KIs auf der Grundlage von Zeitreihen, aber die gleiche Methodik könnte auf KIs angewendet werden, die auf anderen in der Medizin verwendeten Modalitäten wie Bildern oder Text basieren.»
Dr. Mina Bjelogrlic, Studien-Mitautorinquelle: unige.ch

Quellen

(dsc/sda)

DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
Hast du technische Probleme?
Wir sind nur eine E-Mail entfernt. Schreib uns dein Problem einfach auf support@watson.ch und wir melden uns schnellstmöglich bei dir.
3 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Rethinking
23.03.2023 08:25registriert Oktober 2018
Man sollte sich aber auch folgende Frage stellen:

Wie können wir einem Menschen vertrauen, ohne die Grundlage seines Denkens zu verstehen?

Sind wir ehrlich: Bei den meisten Menschen kennen wir ihre innersten Motive nicht…
261
Melden
Zum Kommentar
3
Firma hinter ChatGPT eröffnet Büro in Zürich – und schnappt Google Top-Forscher weg
Das US-Unternehmen OpenAI baut seine Präsenz in Europa weiter aus und wirbt beim grossen Konkurrenten drei KI-Forscher ab.

OpenAI wurde jüngst mit 157 Milliarden Dollar bewertet. Nun eröffnet das US-Unternehmen in Zürich eine Niederlassung, wie am Mittwoch mitgeteilt wurde.

Zur Story