Neurobiologie

Wir „hören“ mit den Augen – Japaner nicht

Europäer verarbeiten Sprache anders als Asiaten

Japaner achten beim Hören von Sprache fast nur auf das Gehörte, Europäer beziehen die Mundbewegungen des Sprechers mit ein. © Wavebreakmedia/ iStock.com

Blick auf den Mund: Wenn wir jemandem zuhören, blicken wir instinktiv auf seinen Mund – das hilft uns auch beim Verstehen. Jetzt zeigt ein Experiment: Dieses „Hören mit den Augen“ ist zwar typisch für uns Europäer, nicht aber für Asiaten. Japaner verstehen das Gesagte sogar schlechter, wenn sie gleichzeitig auf Lippenbewegungen achten, wie Forscher im Fachmagazin “ Scientific Reports“ berichten.

Wenn wir jemandem intensiv zuhören, blicken wir ihm meist ins Gesicht. Denn Mimik, aber auch Lippenbewegungen helfen uns, das Gesagte zu verstehen. Gerade bei Silben, die akustisch sehr ähnlich klingen oder aber in einem lauten Raum mit vielen Störgeräuschen, kann die Lippenstellung das Verständnis erleichtern. Umgekehrt sorgt es bei uns oft für Irritation, wenn ein Film schlecht synchronisiert ist und Mundbewegungen und Sprache nicht übereinstimmen.

Japaner und Briten im Test

Ob diese Effekte auch bei Japanern auftreten, haben nun Satoko Hisanaga von der Kumamoto Universität und seine Kollegen in einem Experiment untersucht. Für ihre Studie spielten sie jeweils 20 englischen und 20 japanischen Muttersprachlern Videos vor, in denen Europäerin oder eine Japanerin akustisch sehr ähnliche Silben sprach, beispielsweise „ba“ und „ga“.

Durch Eyetracker, Ableitungen der Hirnströme und Hirnscans ermittelten die Forscher, wie stark die Probanden den Mund der Sprecherin fixierten und welche Hirnareale bei der Sprachverarbeitung beteiligt waren. Außerdem verglichen sie, wie häufig und wie schnell die Teilnehmer die Silbe richtig bestimmten. In einige Durchgängen wurden die Videos zudem so manipuliert, dass Mundbewegungen und Silbe nicht zueinander passten.

Sehen verlangsamt Hörreaktion

Das verblüffende Ergebnis: Die englischsprachigen Probanden nannten die richtige Silben schneller und häufiger, wenn sie gleichzeitig zum Ton die sprechende Frau sahen. Bei den Japanern jedoch war es umgekehrt: Sie benötigten mehr Zeit, wenn sie sich auf Video und Ton gleichzeitig konzentrieren mussten, wie die Forscher berichten.

Hörten die japanischen Probanden nur die Silben allein, verstanden sie das Gesprochene schneller. Nach Ansicht der Forscher könnte das erklären, warum Japaner eine Fremdsprache besser durch das reine Hören lernen und von Sprachvideos nur wenig profitieren. Bei Europäern ist der Lernerfolg dagegen meist größer, wenn sie den Sprechenden sehen können.

Im Experiment schauten die Europäer primär auf den Mund der Sprecherin, die Japaner blickten eher auf Nase und Augen. © Kaoru Sekiyama

Blick auf den Mund nur bei Europäern

Und noch ein Unterschied zeigte sich im Experiment: Die Europäer konzentrierten ihren Blick fast immer auf den Mund der Frau im Video – und das schon bevor diese zu sprechen begann. Bei den Japanern hingegen schweifte der Blick im Gesicht umher und blieb weit häufiger an Nase und Augen hängen, wie die Eyetracker-Daten ergaben.

„Englischsprachige Menschen versuchen, die mögliche Laute einzuengen, indem sie die Information der Lippenbewegungen nutzen“, erklärt Seniorautor Kaoru Sekiyama von der Kumamoto Universität. „Japanische Muttersprachler dagegen legen ihren Schwerpunkt auf das reine Hören – die visuelle Information erfordert einen zusätzlichen Verarbeitungsaufwand.“ Das erklärt auch, warum Europäer eher irritiert sind, wenn Laute und Bewegungen bei einem Video nicht zusammenpassen.

Hirnareale bei Europäern enger verknüpft

In einem weiteren Versuchsdurchgang testeten die Forscher, ob diese Unterschiede sich auch in der Verdrahtung des Gehirns widerspiegeln. Dafür zeichneten sie die Hirnaktivität der Probanden mittels funktioneller Magnetresonanz-Tomografie (fMRT) auf.

Und tatsächlich: Bei den Europäern waren die Hirnareale für das Hören und für die Verarbeitung visueller Information eng funktionell miteinander verknüpft. Die primäre Hörrinde und Bereiche im Temporallappen feuerten gemeinsam, wenn die Probanden die Silben hörten und Videos sahen. Anders bei den Japanern: Bei ihnen war diese Verknüpfung deutlich schwächer ausgeprägt, wie die Forscher berichten.

Art der Sprachverarbeitung ist nicht universell

„Unsere Ergebnisse belegen, dass die neuronalen Prozesse bei der audiovisuellen Sprachverarbeitung nicht universell sind“, konstatieren Hisanaga und seine Kollegen. Stattdessen prägen offenbar die kulturellen Eigenheiten, ob jemand nur auf das Gehörte achtet oder auch visuelle Informationen hinzunimmt.

Gestützt wird dies durch die Beobachtung, dass die Unterschiede in der Sprachverarbeitung erst bei Kindern im Alter von sechs bis acht Jahren auftreten. Vorher ähneln sich die neuronalen Prozesse bei Europäern und Japaner stark. „Unser Verhalten und unsere neuronale Reaktion bei der Verarbeitung gehörter und gesehener Sprache werden offensichtlich durch unseren linguistischen und kulturellen Hintergrund definiert“, sagen die Forscher. (Scientific Reports, 2016; doi: 10.1038/srep35265)

(Kumamoto University, 17.11.2016 – NPO)

Keine Meldungen mehr verpassen – mit unserem wöchentlichen Newsletter.
Teilen:

In den Schlagzeilen

News des Tages

Skelett eines ungeborenee Kindes

So entstehen die Knochen des ungeborenen Kindes

Astronomen entdecken jüngsten Transit-Planet

Mehr Blackouts durch Wind- und Sonnenstrom?

Parkinson: Wenn mehr Dopamin mehr Zittern bedeutet

Diaschauen zum Thema

Dossiers zum Thema

Sprachensterben - Schleichendes Verschwinden unseres kulturellen Gedächtnisses

Bücher zum Thema

Das Buch der Klänge - Eine Reise zu den akustischen Wundern der Welt Von Trevor Cox

Das lesende Gehirn - Wie der Mensch zum Lesen kam - und was es in unseren Köpfen bewirkt Von Maryanne Wolf

Im Fokus: Neurowissen - Träumen, Denken, Fühlen - Rätsel Gehirn von Nadja Podbregar und Dieter Lohmann

Top-Clicks der Woche