Noch ist der Blick in die Träume eines anderen Menschen reine Science-Fiction. Doch ein erster Schritt hin zu einem Gedankenlesen von bewegten Bildern ist jetzt US-amerikanischen Forschern gelungen. Man habe erstmals allein auf Basis der Gehirnaktivität von Versuchspersonen rekonstruiert, welche Filmtrailer sich diese gerade anschauten, berichten sie im Fachmagazin „Current Biology“. „Dies ist ein großer Sprung hin zu einer Rekonstruktion der inneren Bilderwelt“, sagt Jack Gallant von der University of California in Berkeley, einer der Autoren der Studie. „Wir öffnen damit ein Fenster in die Filme unseres Geistes.“
Für ihre Studie erfassten die Forscher die Aktivität des Sehzentrums von Probanden, während sich diese Filmtrailer anschauten. Ein lernfähiges Computerprogramm verknüpfte das dreidimensionale Muster der Gehirnaktivität mit den Bildinformationen. Im eigentlichen Test erhielt das Programm nur noch die Daten zur Gehirnaktivität und rekonstruierte daraus die gesehene Filmszene – ohne das betreffende Video zu kennen.
Hilfe für Gelähmte und bei Mensch-Maschine-Kommunikation
Noch sei die Technologie weit davon entfernt, tatsächlich Gedanken lesen zu können, betonen die Forscher. Aber bereits jetzt seien praktische Anwendungen denkbar: So könne ein solches Programm zukünftig Schlaganfallpatienten oder anderen durch eine Krankheit Gelähmten dabei helfen, besser mit ihrer Umwelt und mit Computern zu kommunizieren. „Unsere natürliche visuelle Erfahrung gleicht dem Sehen eines Films“, sagt Gallants Kollege Shinji Nishimoto, Hauptautor der Studie. Um diese Technologie in Zukunft einsetzbar machen zu können, müsse man daher erst einmal die grundlegenden Gehirnprozesse beim Verarbeiten solcher bewegter Bilder verstehen.
Bildgebendes Verfahren mit lernfähigem Modell kombiniert
Die Gehirnaktivität im Sehzentrum ihrer Testpersonen erfassten die Forscher mit Hilfe der funktionellen Magnetresonanztomographie (fMRI). Dieses Verfahren zeigt, wo im Gehirn besonders viel Blut fließt. Da sich der Blutfluss aber sehr viel langsamer ändere als die Gehirnsignale, die die bewegten Informationen verarbeiten, habe man diese Aufnahmen mit einem lernfähigen Modell kombiniert, sagen die Forscher. „Dieses interpretiert die zugrundeliegenden neuronalen Signale“, sagt Nishimoto.
Für die Weiterverarbeitung dieser Aufnahmen durch das Computermodell wurde das Gehirn in winzige, dreidimensionale Würfel, sogenannte Voxel, unterteilt. Der Computer wertete für jeden dieser Punkte die jeweilige Aktivität aus. „Wir entwickelten ein Modell für jedes Voxel, das beschreibt, wie Form und Bewegungsinformation des Films in Gehirnaktivität an dieser Stelle umgewandelt wird“, sagt Nishimoto.
Rekonstruktion beim zweiten Durchlauf
Nachdem das Computerprogramm „gelernt“ hatte, welche Filmbilder welches dreidimensionales Aktivitätsmuster im Sehzentrum hervorriefen, folgte der eigentliche Test. Die Probanden schauten sich dafür eine Auswahl der zuvor gesehen Filmclips erneut an. Erneut habe das Programm das Voxelmuster ihrer Gehirnaktivität ausgewertet, berichten die Forscher.
In einem Pool von 18 Millionen willkürlich ausgewählten Youtube-Clips suchte das Programm anschließend nach Filmszenen, die dem Muster am ehesten entsprachen. Das vom Probanden als Testfilm angeschaute Video war nicht darunter. Die hundert am besten passenden Szenen verschmolz der Computer und erzeugte daraus eine verschwommene, aber bewegte Rekonstruktion der vom Probanden gesehenen Filmszene.
(University of California – Berkeley, 23.09.2011 – NPO)