Ein Mann mit Spezialhandschuh legt seine Hand auf den Kopf einer Frau. Beide tragen futuristische Brillen.© Thinkstock / iStock / Getty Images Plus
Eine Maschine, die mit künstlicher Intelligenz Gedanken liest? Das könnte schon bald Wirklichkeit werden.

Künstliche Intelligenz

GEDANKENLESENDER HIRNSCANNER

Faszinierend oder gruselig? Forschende scannen das Gehirn eines Menschen und eine Maschine verrät dann, was dieser Mensch gerade denkt. Noch ist der Hirnscanner nicht zuverlässig genug. Welche Chancen könnte er für die Medizin bedeuten – und welche Gefahren könnte er bringen?

Seite 1/1 3 Minuten

Seite 1/1 3 Minuten

Mit Hirnscanner und KI haben US-Forscher bei willigen Probanden bestimmte Arten von Gedanken zumindest grob erfassen können. So konnte ein von ihnen entwickelter Decoder mit Hilfe von sogenannten fMRT-Bildern in bestimmten experimentellen Situationen ungefähr wiedergeben, was den Teilnehmern durch den Kopf ging, wie das Team im Fachblatt Nature Neuroscience schreibt.

Diese Hirn-Computer-Schnittstelle, bei der keine Operation notwendig ist, könnte irgendwann Menschen helfen, die ihr Sprachvermögen zum Beispiel in Folge eines Schlaganfalls verloren haben, so die Hoffnung der Forscher. Experten sind allerdings skeptisch. Die Studienautoren der University of Texas betonen, dass mit ihrer Technologie nicht heimlich Gedanken ausgelesen werden könnten.

Wie funktionieren Gedankenleser?

Hirn-Computer-Schnittstellen (Brain-Computer-Interfaces; BCI) beruhen auf dem Prinzip, menschliche Gedanken durch technische Schaltkreise zu lesen, zu verarbeiten und in Bewegungen oder Sprache zu übersetzen. Auf diese Weise könnten etwa Gelähmte per Gedankensteuerung ein Exoskelett steuern oder Menschen mit Locked-In-Syndrom mit ihrer Außenwelt kommunizieren. Viele der entsprechenden Systeme, die derzeit erforscht werden, erfordern jedoch Operationen, um die Elektroden zu implantieren.

Bei dem neuen Ansatz bildet ein Computer auf Grundlage von Hirnaktivitäten Wörter und Sätze. Diesen Sprachdecoder trainierten die Forschenden, indem sie drei Probanden 16 Stunden lang Geschichten hören ließen, während diese in einem funktionellen Magnetresonanztomographen (fMRT) lagen. Mit einem solchen fMRT können Durchblutungsänderungen von Hirnarealen sichtbar gemacht werden, die wiederum ein Indikator für die Aktivität der Neuronen sind.

Im nächsten Schritt bekamen die Probanden neue Geschichten zu hören, während ihr Gehirn wieder in der fMRT-Röhre untersucht wurde. Der zuvor trainierte Sprachdecoder war nun in der Lage, aus den fMRT-Daten Wortfolgen zu erstellen, die den Forschenden zufolge den Inhalt des Gehörten weitgehend korrekt wiedergaben.

Künstliche Intelligenz erkennt Muster in der Hirnaktivität

Das System übersetzte dabei die im fMRT aufgezeichneten Informationen nicht in einzelne Wörter. Vielmehr nutzte es die im Training erkannten Zusammenhänge sowie Künstliche Intelligenz (KI), um bei neuen Geschichten die gemessenen Hirnaktivitäten den wahrscheinlichsten Phrasen zuzuordnen.

Dieses Vorgehen erklärt Rainer Goebel, Leiter der Abteilung für kognitive Neurowissenschaften an der niederländischen Maastricht-Universität, in einer unabhängigen Einordnung so: „Eine zentrale Idee der Arbeit war es, ein KI-Sprachmodell zu benutzen, um die Anzahl der möglichen Phrasen, die mit einem Hirnaktivitätsmuster im Einklang stehen, stark zu reduzieren.“

Daran scheitert der Gedankenleser noch

In einem Pressegespräch zur Studie veranschaulichte Mitautor Jerry Tang das Ergebnis der Tests: So habe der Decoder den Satz „Ich habe meinen Führerschein noch nicht“ als „Sie hat noch nicht einmal angefangen, Fahren zu lernen“ wiedergegeben. Das Beispiel illustriert laut Tang eine Schwierigkeit: „Das Modell ist sehr schlecht mit Pronomen – woran das liegt, wissen wir aber noch nicht.“

„Das Modell ist sehr schlecht mit Pronomen – woran das liegt, wissen wir aber noch nicht.“

Insgesamt sei der Decoder dahingehend erfolgreich, dass viele ausgewählte Phrasen bei neuen, also nicht trainierten Geschichten Wörter des Originaltextes enthielten oder zumindest einen ähnlichen Bedeutungsgehalt aufwiesen, so Rainer Goebel. „Es gab aber auch recht viele Fehler, was für eine vollwertige Hirn-Computer-Schnittstelle sehr schlecht ist, da es für kritische Anwendungen – zum Beispiel Kommunikation bei Locked-In-Patienten – vor allem darauf ankommt, keine falschen Aussagen zu generieren.“ Noch mehr Fehler wurden generiert, als die Probanden sich eigenständig eine Geschichte vorstellen sollten oder einen kurzen animierten Stummfilm zu sehen bekamen, und der Decoder Ereignisse darin wiedergeben sollte.

Für Goebel sind die Resultate des vorgestellten Systems insgesamt zu schlecht, um als vertrauenswürdige Schnittstelle zu taugen: „Ich wage die Vorhersage, dass fMRT-basierte BCIs (leider) wohl auch in Zukunft auf Forschungsarbeiten mit wenigen Probanden – wie auch in dieser Studie – beschränkt bleiben werden.“

Auch Christoph Reichert vom Leibniz-Institut für Neurobiologie ist skeptisch: „Wenn man sich die gezeigten Beispiele des präsentierten und rekonstruierten Textes ansieht, wird schnell klar, dass diese Technik noch weit davon entfernt ist, einen gedachten Text zuverlässig aus Gehirndaten zu generieren.“ Trotzdem deute die Studie an, was möglich sein könne, wenn sich die Messtechniken verbesserten.

Wollen wir das überhaupt; eine Maschine, die Gedanken liest?

Hinzu kommen ethische Bedenken: Je nach künftiger Entwicklung könnten Maßnahmen zum Schutz der geistigen Privatsphäre nötig sein, schreiben die Autoren selbst. Allerdings zeigten Versuche mit dem Decoder, dass sowohl für das Training, als auch für die folgende Anwendung die Kooperation der Probanden nötig war. „Wenn diese während des Dekodierens im Kopf zählten, Tiere benannten oder an eine andere Geschichte dachten, wurde der Prozess sabotiert“, beschreibt Jerry Tang.

Ebenso schnitt der Decoder schlecht ab, wenn das Modell mit einem anderen Menschen trainiert worden war.

Quelle: dpa

×