Wissen
Interview

Surjo Soekadar: Wie ein Neurologe mit KI das Gehirn neu verschaltet

Bild
Bild: Shutterstock
Interview

Wie ein Neurologe mit KI das Gehirn neu verschaltet

Surjo Soekadar überführt Science Fiction in die Realität: Der Hirnforscher nutzt intelligente Systeme, die das Gehirn in Echtzeit lesen und so gezielt stimulieren können. Damit können gelähmte Körperteile teilweise wieder bewegt, Denken hörbar gemacht und Depressionen gelindert werden.
07.02.2026, 17:1607.02.2026, 18:33

Surjo Soekadar befasst sich mit sogenannten Hirn-Computer-Schnittstellen (BCI). An der Charité in Berlin erforscht der Professor, wie sich Gehirn und Computer verbinden lassen, um Patient:innen nach einem Schlaganfall wieder Bewegung oder Kommunikation zu ermöglichen.

Ein Patient testet ein von der Charité entwickeltes Brain-Computer-Interface zur Steuerung einer Exoskelett-Hand. © AG Klinische Neurotechnologie, Charité – Universitätsmedizin Berlin
Ein Patient testet ein von der Charité entwickeltes BCI zur Steuerung einer Exoskeletthand.Bild: © AG Klinische Neurotechnologie, Charité – Universitätsmedizin Berlin

Der Körper allein kann diese Aufgaben gerade nicht mehr leisten, weil die Weiterleitung der Bewegungsbefehle an Rückenmark und Muskeln unterbrochen ist oder der Gedanke nicht als verständlich formulierte Sprache den Mund verlässt. Wollen und Können sind in beiden Fällen auseinandergefallen, also messen und übersetzen BCI-Systeme nun die Hirnaktivität – sprich das Wollen – in Steuersignale für Computer, die das Können übernehmen. Zusammengefasst heisst das:

«KI kann Gedanken lesen.»
Surjo Soekadar

Aber Soekadar tut nicht nur das. Er beschäftigt sich auch mit psychischen Krankheiten: Depressionen, Angststörungen oder der Schizophrenie. Und er geht diese sehr direkt im Gehirn an: mittels nicht-invasiver, elektromagnetischer Hirnstimulation. Auf dass sich das Gehirn anders und gesünder zu vernetzen lernt.

Und weil bei all diesen Krankheitsbildern auch die innere Stimme ganz massgeblich beteiligt ist, hört Soekadar auch ihr zu.

Zur Person
Surjo Soekadar ist Professor für Klinische Neurotechnologie an der Charité Berlin. Er untersucht die neuronale Plastizität des Gehirns, also dessen Fähigkeit, sich an verändernde Bedingungen anzupassen. Sein Schwerpunkt liegt dabei auf Gehirn-Computer-Schnittstellen (BCI) sowie deren klinischer Anwendung bei neurologischen und psychiatrischen Erkrankungen.
Am aha-Festival in Luzern hat er kürzlich über die «innere Stimme» gesprochen: Wie wir sie technisch hörbar machen können – und wo Therapie endet und Zukunft beginnt.
infobox image
Bild: Franca Pedrazzetti

Wir alle kennen sie, die sogenannte innere Stimme. Manchmal macht sie uns Mut, manchmal das Gegenteil. Wer redet denn eigentlich da in unserem Kopf? Ist es die fordernde Mutter, der nörgelnde Vater oder bloss die eigene Stimme, die in diesem Augenblick die gelesenen Wörter innerlich mitspricht? Das Gewissen oder verinnerlichte Gewissheiten, ein Bauchgefühl – oder ein bunter Cocktail aus all dem?
Surjo Soekadar: Die «innere Stimme» ist kein einzelner Akteur, sondern das Ergebnis mehrerer zusammenwirkender Prozesse – darunter Gewissen, Intuition und verinnerlichte Sprache. Nach der Theorie des Psychologen Lew Wygotski entsteht ihre verbalisierte Form im frühen Kindesalter durch die Internalisierung von Selbstgesprächen. Diese zunächst laut ausgesprochenen Selbstanweisungen werden im Laufe der Entwicklung leiser, schneller und effizienter. Sie übernehmen dann Funktionen wie Selbstmotivation, Selbstkontrolle oder Beruhigung. Mit dem Einsatz moderner bildgebender Verfahren in den Neurowissenschaften konnten Hirnnetzwerke identifiziert werden, die mit der inneren Stimme in Zusammenhang stehen. Dabei zeigte sich, dass ähnliche Hirnareale aktiv sind wie beim tatsächlichen Sprechen – ein Hinweis darauf, dass die innere Stimme eng mit sprachlichen Verarbeitungsprozessen verknüpft ist.

Lew Wygotski
Der russische Psychologe Lew Wygotski (1896–1934) beobachtete kleine Kinder beim Selbstgespräch; nicht nur beim Spielen reden sie laut, es hilft ihnen auch, ein Ziel zu erreichen: Diese egozentrische oder private Sprache werde «zum Werkzeug der Gedanken, indem es für das Problem eine Lösung sucht und plant». Zwischen 5 oder 7 Jahren verschwindet sie dann ins Innere, wo sie als eine Art Selbstregulationssystem funktioniert und uns hilft, Gedanken, Erinnerungen, Pläne und Emotionen einzuordnen.
Bei älteren Menschen oder Sportler:innen wird die innere Stimme oftmals wieder laut: weil die innere aufgrund kognitiver oder körperlicher Belastung, Stress oder Komplexität nicht mehr reicht, um Denken und Handeln zu stabilisieren.

Die Phrenologie versuchte zu Beginn des 19. Jahrhunderts, eine Art Gehirnkarte zu erstellen. Die verschiedenen geistigen Fähigkeiten eines Menschen wurden als «Organe» in klar umrissene Bereiche unterteilt und einem bestimmten Ort zugewiesen. War eines besonders ausgeprägt, wölbte sich, so die Theorie, die betreffende Stelle unter der Schädeldecke hervor. Hinter den Augen vermutete Franz Joseph Gall das Sprachzentrum, wer also hervorstehende Augen hat, musste ein wahrer Poet sein. Das ist natürlich kompletter Unsinn, heute weiss man, dass das Gehirn viel komplexer, viel vernetzter und alles andere als starr ist. Wie muss man sich also das Machwerk der inneren Stimme genau vorstellen? Welche Gehirnareale sind daran beteiligt?

Phrenologie
Eine phrenologische Gehirnkarte.
Bild: Wikimedia

Man sollte sich die innere Stimme nicht als klar abgegrenztes «Modul» im Gehirn vorstellen, sondern als das Ergebnis eines dynamischen Zusammenspiels mehrerer Hirnnetzwerke. Bei der Erzeugung und Wahrnehmung der verbalisierten inneren Stimme sind vor allem sprachnahe Areale im linken Stirnhirn und Temporallappen aktiv. Diese sind, wie schon erwähnt, auch beim Sprechen und Sprachverstehen aktiv, ergänzt durch Regionen, die für Selbstbezug, Bewertung und Emotionsregulation zuständig sind. Dazu zählen insbesondere präfrontale Bereiche sowie Teile des sogenannten Default-Mode-Netzwerks. Dieses Netzwerk ist aktiv, wenn wir nach innen gerichtet denken. Bei depressiven Menschen kommt es dabei häufig zu einer zusätzlichen Aktivität im limbischen System, beispielsweise im Mandelkern, der bei Bedrohungen besonders aktiv ist. Entsprechend sind die inneren Stimmen bei Depressionen nicht gerade nett.

Die innere Stimme ist also keine blosse Imagination, sondern vielmehr stilles Sprechen: eine motorische und auditive Simulation im Sprachsystem, die ohne Bewegung der Sprechmuskulatur und ohne hörbare ...
Die innere Stimme ist also keine blosse Imagination, sondern vielmehr stilles Sprechen: eine motorische und auditive Simulation im Sprachsystem, die ohne Bewegung der Sprechmuskulatur und ohne hörbaren Laut stattfindet.
Bild: Shutterstock

Was genau läuft schief, wenn die Stimmen pathologisch werden, bei Menschen mit Schizophrenie beispielsweise oder solchen, die unter einer Psychose leiden – und wie können Sie jene Dysfunktionen sicht- und messbar machen und interpretieren?
Das ist ein super-spannendes Forschungsgebiet, weil hier grundlegende Mechanismen der Selbstwahrnehmung sichtbar werden. Beim lauten Sprechen und in abgeschwächter Form auch beim inneren Sprechen erhält das Hörareal eine Art Kopie des motorischen Sprachsignals. Dieses Vorhersagesignal sorgt dafür, dass die eigene Stimme korrekt als selbst erzeugt erkannt und in der Hörwahrnehmung teilweise ausgeblendet wird. Genau deshalb irritiert es uns stark, wenn wir unsere Stimme zeitverzögert, doppelt oder technisch verfremdet hören: Die interne Vorhersage passt dann nicht mehr zur akustischen Rückmeldung. Bei Menschen mit Schizophrenie ist dieser Mechanismus gestört. Die Sprachsimulation aktiviert das Hörareal, ohne dass diese Aktivierung zuverlässig als selbstverursacht erkannt wird. Der sprachliche Inhalt wird dadurch als äusserer Reiz erlebt. Stimmen werden im Raum gehört. Das Stimmenhören ist ein Kernsymptom der Schizophrenie und tritt bei etwa 60 bis 80 Prozent der Betroffenen im Krankheitsverlauf auf. Übrigens kann das Stimmenhören auch bei Menschen ohne Schizophrenie auftreten. Man schätzt, dass ein bis drei Prozent der Bevölkerung Stimmen hören, ohne dass sich dahinter eine Schizophrenie verbirgt. Die Aktivierung in der Hörrinde ohne äussere Reize lässt sich heute auch objektiv mit Hilfe der funktionellen Kernspintomographie nachweisen. Neurobiologisch handelt es sich also nicht um «Einbildung», sondern um eine Fehlzuordnung von Urheberschaft: Selbst generierte Inhalte werden vom Gehirn wie fremde Wahrnehmungen behandelt.

Bild
bild: Shutterstock

Sie arbeiten unter anderem mit repetitiver transkranieller Magnetstimulation (rTMS). Eine nicht-invasive Therapieform, bei der die Gehirne der Patient:innen mit Hilfe einer spulenförmigen Vorrichtung über dem Kopf gezielt mit kurzen, schmerzfreien Magnetimpulsen stimuliert werden. Dank der Plastizität des Gehirns, also seiner lebenslangen Eigenschaft, sich durch Erfahrung, Lernen, Denken, Schädigung, Umweltveränderung oder eben Stimulation in seiner physikalischen Anatomie zu verändern und sich neu zu verschalten, kann diese Therapie gesündere Muster bahnen. Sprich, sie moduliert Gehirnaktivität und wird bei Depressionen, Angst- und Zwangsstörungen oder Suchterkrankungen eingesetzt. Wie wirksam ist sie und wie viel Verhaltenstherapie braucht es da noch?
Die rTMS gehört zu den wirksamsten Verfahren in der Behandlung depressiver Symptome. Die Effektstärken liegen deutlich über denen von Medikamenten oder klassischer Psychotherapie. Gleichzeitig ist die Methode vergleichsweise aufwändig, weil die Patientinnen und Patienten über mehrere Wochen hinweg nahezu täglich in die Klinik oder Praxis kommen müssen. Wichtig ist dabei ein realistisches Verständnis: rTMS kann Symptome lindern, die aus einer veränderten Hirndynamik entstehen. Sie kann jedoch nicht die Ursachen von Depressionen, Angst- und Zwangsstörungen oder von Suchterkrankungen auflösen. Genau deshalb ist es entscheidend, diese Form der Neuromodulation in ein ganzheitliches Therapiekonzept einzubetten, das auch psychosoziale Faktoren berücksichtigt.

Das Bahnbrechende an den BCI-Systemen, die Soekadar mit seinem Team im Clinical Neurotechnology Lab an der Charité in Berlin entwickelt, ist die Tatsache, dass dabei eine Echtzeit-Therapie ermöglicht  ...
Das Bahnbrechende an den BCI-Systemen, die Soekadar mit seinem Team im Clinical Neurotechnology Lab an der Charité in Berlin entwickelt, ist die Tatsache, dass dabei eine Echtzeit-Therapie ermöglicht wird: Der Computer liest die aktuelle Hirnaktivität des Patienten und reagiert darauf mit Stimulation, um danach sofort wieder die dadurch veränderte Hirnaktivität zu lesen und wiederum entsprechend verändert auf diese zu reagieren. Das Ganze nennt sich Closed-Loop: ein kontinuierlicher Rückkopplungskreis zwischen Hirnzustand und technischer Antwort, kein einmaliges Lesen und Reagieren, sondern ein ständiges Messen-Anpassen-Messen-Anpassen.
Bild: via neurocare

Kann der Einsatz von rTMS auch das Stimmenhören bei Schizophrenie lindern?
Ja, die Überaktivität der Hörrinde lässt sich mittels rTMS gezielt dämpfen. Bei einem Teil der Betroffenen führt das zu einer deutlichen Reduktion der Stimmen und damit zu einer spürbaren Verbesserung der Lebensqualität.

Wenn also durch gezielte Hirnmodulation Symptomlinderung ermöglicht wird, könnte dieselbe Therapie nicht auch missbraucht werden, um Menschen zu manipulieren, zu kontrollieren, zu optimieren? Man könnte die Risikobereitschaft von Soldaten erhöhen und ihre Angst reduzieren, ihre Erinnerungen an geliebte Menschen löschen – und irgendwann vielleicht sogar die Aussagen der inneren Stimme in irgendeiner Weise steuern? Kurz: Kann aus Gehirnstimulation Gehirnwäsche werden?
Mit Neuromodulation lassen sich Hirndynamiken gezielt verändern, entsprechend müssen solche Systeme in bestimmten Fällen auch dauerhaft eingesetzt oder sogar implantiert werden – etwa um epileptische Anfälle frühzeitig zu erkennen und ihnen entgegenzuwirken oder um motorische Symptome bei Parkinson gezielt abzuschwächen. Die derzeit verfügbaren Verfahren sind bei weitem aber nicht präzise genug, um etwa gezielt Erinnerungen zu löschen oder die Inhalte der inneren Stimme zu steuern. Es lässt sich jedoch nicht ausschliessen, dass solche Anwendungen eines Tages in begrenztem Umfang beim Menschen möglich sein könnten.

Mit welchen Methoden könnte man solcherlei unethische Verwendungszwecke verhindern?
Dafür muss man frühzeitig klare Regeln definieren: In welchen Situationen ist der Einsatz solcher Technologien sinnvoll – und aus ethischer Sicht vielleicht sogar geboten, etwa bei schweren psychischen Erkrankungen, und wo muss er klar abgelehnt werden? Wir erleben derzeit, dass jährlich hunderte Millionen US-Dollar in die Entwicklung implantierbarer Neurotechnologien investiert werden. Diese Systeme zielen perspektivisch nicht nur auf medizinische Anwendungen, sondern sollen auch eine direkte Interaktion mit der digitalen Welt für alle ermöglichen – und zwar in beide Richtungen: Hirnaktivität auslesen und durch Stimulation gezielt verändern. Gemeinsam mit Ethiker:innen, Jurist:innen und Kliniker:innen fordern wir deshalb ein Moratorium für den Einsatz implantierbarer, bidirektionaler Schnittstellen ausserhalb medizinischer Anwendungen. Die gesellschaftlichen Folgen solcher Technologien sind derzeit noch in keiner Weise zuverlässig abschätzbar. Solche Technologien erfordern es, dass eine sogenannte lifecycle governance implementiert wird, also der Nutzen und die Auswirkungen regelmässig erfasst werden und der Einsatz gegebenenfalls entsprechend nachjustiert oder begrenzt werden kann.

A portrait picture of Elon Musk photographed in Krakow, Poland on January 22nd, 2024 and Neuralink logo screened on a mobile phone for illustration photo. Krakow, Poland on February 5th, 2025. (Photo  ...
Während staatliche Mittel schrumpfen, fliessen Milliarden von Tech-Milliardären in BCI-Startups – oft mit anderen Prioritäten als Gemeinwohl und Transparenz. Sie wollen die Architektur der nächsten Mensch-Maschine-Schnittstelle bestimmen; Musks Neuralink etwa verfolgt das langfristige Ziel, Menschen mit KI zu verschmelzen, damit wir künftig direkt, via Gedanke, mit KI-Systemen und Robotern kommunizieren können. Das ist eine Form kognitiver Erweiterung mit grossem Potenzial. Doch in privaten Händen birgt sie Risiken für Privatsphäre, Autonomie und gesellschaftliche Gleichheit.
Bild: NurPhoto

Technologie an sich ist ja neutral; die moralische Qualität entsteht durch ihren Zweck, durch Kontext und Kontrolle. Für Ihre Arbeit brauchen Sie vor allem einen Haufen Daten. Die Computer müssen mit Krankheitsgeschichten, mit Symptomprofilen, EEGs, MRTs, Hirnscans und Smartphone-Wissen gefüttert werden, damit die Therapie personalisiert werden kann. Welchen Herausforderungen sehen Sie sich da gegenüber?
Ich denke, dass wir in Europa in Bezug auf Datenschutz und Patient:innen-Sicherheit sehr gut aufgestellt sind. Die eigentliche Herausforderung sehe ich weniger auf dieser Ebene, sondern darin, solche Forschung und Entwicklung in Deutschland mit ausreichenden Ressourcen zu ermöglichen – und sie in ein Ökosystem einzubetten, das diese Technologien nach erfolgreicher wissenschaftlicher und klinischer Validierung auch zügig in die Anwendung und Kommerzialisierung bringt. Denn nur Technologien, die wir selbst entwickeln, können wir wirklich verstehen, verantwortungsvoll steuern und regulieren. Das ist eine Frage technologischer Souveränität. An der Charité versuche ich daher aktuell, mit Unterstützung der Einstein Stiftung und des Förderfonds Wissenschaft in Berlin, ein NeuroTech-Innovationsökosystem aufzubauen, das genau diese Voraussetzungen schafft.

Maschinelles Lernen (ML) erkennt standardmässig nur Korrelationen, keine Kausalität. Ergeben sich daraus gewisse Schwierigkeiten für Ihre Forschung?
Genau dieser Umstand spricht dafür, bidirektionale Systeme zu entwickeln, die nicht nur Hirnaktivität erfassen, sondern das Gehirn gleichzeitig auch gezielt stimulieren können. Erst durch die Stimulation kommt ein aktives Element in die Interaktion, mit dem sich kausale Zusammenhänge systematisch untersuchen lassen – und nicht nur Korrelationen beschreiben. An der Charité arbeiten wir derzeit an einem weltweit einzigartigen System, das dieses Prinzip vollständig kontaktlos umsetzt, also ohne die Implantation von Elektroden. Dabei nutzen wir interagierende Magnetfelder in Kombination mit sogenannten Quantensensoren, um extrem schwache magnetische Signale des Gehirns messbar zu machen – Signale, die um ein Vielfaches schwächer sind als das Erdmagnetfeld.

Präzisere Messung bringt präzisere Steuerung: Nicht-invasive Quantensensoren werden es wahrscheinlich bald ermöglichen, nicht nur die Exoskelett-Hand als Ganzes zu bewegen, sondern einzelne Finger zu  ...
Präzisere Messung bringt präzisere Steuerung: Nicht-invasive Quantensensoren werden es wahrscheinlich bald ermöglichen, nicht nur die Exoskelett-Hand als Ganzes zu bewegen, sondern einzelne Finger zu bedienen. Und nicht nur das: Sie werden auch Sprache in Echtzeit dekodieren können. Im Bild die Dr. House-Folge, «Locked In» aus dem Jahr 2009, wo der geniale Serienarzt einen Patienten behandelt, der an der gleichnamigen neurologischen Krankheit leidet: völlige Bewegungsunfähigkeit bei erhaltenem Bewusstsein. Um mit ihm kommunizieren zu können, nutzt sein Team eine BCI: Der Patient denkt «rauf» für Ja und «runter» für Nein, um den Cursor auf dem Bildschirm zu bewegen.
bild: via reddit
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Aktuelle Gefahren und zukünftige Risiken von KI
1 / 13
Aktuelle Gefahren und zukünftige Risiken von KI
Das ist der britisch-kanadische Informatiker und Psychologe Geoffrey Hinton, er gilt als «Pate» der künstlichen Intelligenz. Der renommierte Wissenschaftler warnt aber auch eindringlich vor den aktuellen und zukünftigen Gefahren der neuen Technologie ...
quelle: keystone / noah berger
Auf Facebook teilenAuf X teilen
KI-Künstlerin mit Millionen Streams
Video: watson
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
58 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
58
Sonne, Planeten, Monde – so schön ist unser Sonnensystem
Wenn es auf der Erde strub zu- und hergeht, ist ein Blick auf die Schönheiten unserer näheren kosmischen Heimat ganz tröstlich.
Die Sonne, Quell des Lebens, versorgt uns mit Licht und Wärme. Das Zentralgestirn des Sonnensystems, um das sich alle Planeten drehen, vereint unglaubliche 99,86 Prozent der gesamten Masse des Sonnensystems auf sich. In dieser Aufnahme aus dem Jahr 2013 sehen wir links eine Eruption. Wenn die Schockwelle einer solchen Eruption auf die Erde trifft, spricht man von einem Sonnensturm.
Zur Story