Forscher können an den Gehirnwellen ablesen, welches Wort ein Mensch gerade hört. In einem Experiment gelang es ihnen, Gehörtes allein anhand des Aktivitätsmusters im Sprachzentrum der Probanden zu rekonstruieren. Ein Modell wandelte dabei die Gehirnsignale in die Schallmuster des entsprechenden Wortes um und gab sie akustisch wieder. Diese Technik hätte die Identifizierung einzelner Wörter schon beim ersten Hören ermöglicht. Die Rekonstruktionen seien sogar gut genug gewesen, um sie mit einem einfachen Spracherkennungsprogramm zuzuordnen, berichten die Wissenschaftler im Fachmagazin „PloS Biology“.
{1l}
Das Auslesen von Sprachsignalen direkt aus dem Gehirn könnte eines Tages Patienten zu Gute kommen, die nicht mehr sprechen können, beispielsweise durch einen Schlaganfall oder Lähmungen, meinen die Forscher. Denn wenn man diese Technik weiterentwickele, könne man eines Tages nicht nur tatsächlich Gehörtes, sondern auch die gedachten Wörter und Sätze solcher Patienten auslesen. Das eröffne ihnen eine Möglichkeit, sich der Außenwelt wieder mitzuteilen.
„Wenn wir die Beziehung zwischen den Gehirnsignalen und dem Wortklang verstehen, könnten wir entweder das Wort, das eine Person gerade denkt, per Sprachausgabe erzeugen oder wir lassen diese Wörter einfach als Text beispielsweise auf einem Computerbildschirm erscheinen“, sagt Erstautor Brian Pasley von der University of California in Berkeley.
Netz aus Elektroden leitet Gehirnsignale ab
An der Studie nahmen 15 Patienten teil, die sich wegen Epilepsie oder einem Tumor einer Hirnoperation unterzogen. Damit die Ärzte beim Eingriff genau prüfen können, wo wichtige Bereiche im Gehirn liegen, sind die Patienten bei einem solchen Eingriff wach. Über feinmaschige Netze aus Elektroden wird ihre Gehirnaktivität und ihre Reaktion auf verschiedene Reize gemessen.
Für ihr Experiment spielten die Forscher dem jeweiligen Patienten einzelne Wörter vor. Darunter befanden sich sowohl existierende Verben und Substantive, als auch Pseudowörter. Mit Hilfe von auf dem Gehirn aufliegenden Elektroden zeichneten sie dabei gezielt die Aktivität im Schläfenlappen der Probanden auf. Dort liegt das Areal, in dem das Gehirn gehörte Sprache verarbeitet. Die Wissenschaftler nutzten zwei unterschiedliche Modelle, um die Aktivitätsmuster dem Schallwellenmuster der jeweils gesprochen Wörter zuzuordnen.
Computer gibt rekonstruiertes Wort akustisch wieder
Im nächsten Durchgang gingen die Forscher den umgekehrten Weg: Sie fütterten ihre Modelle mit verschiedenen Aktivitätsmustern und ließen sie daraus das Schallwellenmuster des Gehörten rekonstruieren. Über eine Sprachausgabe gab ein Computer diesen rekonstruierten Klang aus.
Bei einem der beiden Modelle sei diese Rekonstruktion gut genug gewesen, um zu erkennen, welches Wort gemeint sei, sagen die Forscher. Noch sei die Wiedergabe nicht perfekt. Es sei aber gut möglich, dass sich mit genaueren Ableitungen und verfeinerten Modellen besser verständliche Sprache aus den Gehirnsignalen erzeugen lassen könnte. (PloS Biology, 2012; doi:10.1371/journal.pbio.1001251)
(Public Library of Science, 01.02.2012 – NPO)