Noch ist der Blick in die Träume eines anderen Menschen reine Science-Fiction. Doch ein erster Schritt hin zu einem Gedankenlesen von bewegten Bildern ist jetzt US-amerikanischen Forschern gelungen. Man habe erstmals allein auf Basis der Gehirnaktivität von Versuchspersonen rekonstruiert, welche Filmtrailer sich diese gerade anschauten, berichten sie im Fachmagazin „Current Biology“. „Dies ist ein großer Sprung hin zu einer Rekonstruktion der inneren Bilderwelt“, sagt Jack Gallant von der University of California in Berkeley, einer der Autoren der Studie. „Wir öffnen damit ein Fenster in die Filme unseres Geistes.“
Für ihre Studie erfassten die Forscher die Aktivität des Sehzentrums von Probanden, während sich diese Filmtrailer anschauten. Ein lernfähiges Computerprogramm verknüpfte das dreidimensionale Muster der Gehirnaktivität mit den Bildinformationen. Im eigentlichen Test erhielt das Programm nur noch die Daten zur Gehirnaktivität und rekonstruierte daraus die gesehene Filmszene – ohne das betreffende Video zu kennen.
Hilfe für Gelähmte und bei Mensch-Maschine-Kommunikation
Noch sei die Technologie weit davon entfernt, tatsächlich Gedanken lesen zu können, betonen die Forscher. Aber bereits jetzt seien praktische Anwendungen denkbar: So könne ein solches Programm zukünftig Schlaganfallpatienten oder anderen durch eine Krankheit Gelähmten dabei helfen, besser mit ihrer Umwelt und mit Computern zu kommunizieren. „Unsere natürliche visuelle Erfahrung gleicht dem Sehen eines Films“, sagt Gallants Kollege Shinji Nishimoto, Hauptautor der Studie. Um diese Technologie in Zukunft einsetzbar machen zu können, müsse man daher erst einmal die grundlegenden Gehirnprozesse beim Verarbeiten solcher bewegter Bilder verstehen.
Bildgebendes Verfahren mit lernfähigem Modell kombiniert
Die Gehirnaktivität im Sehzentrum ihrer Testpersonen erfassten die Forscher mit Hilfe der funktionellen Magnetresonanztomographie (fMRI). Dieses Verfahren zeigt, wo im Gehirn besonders viel Blut fließt. Da sich der Blutfluss aber sehr viel langsamer ändere als die Gehirnsignale, die die bewegten Informationen verarbeiten, habe man diese Aufnahmen mit einem lernfähigen Modell kombiniert, sagen die Forscher. „Dieses interpretiert die zugrundeliegenden neuronalen Signale“, sagt Nishimoto.