Wir begleiten unsere Worte oft mit Gesten, Roboter aber blieben bisher meist steif oder ihre Bewegungen passten nicht zum Inhalt ihrer Sätze. Das soll sich nun ändern: Deutsche Forscher haben ein System entwickelt, das verbale Sprache sinnvoll mit Gesten unterstützt. Roboter und Avatare können damit menschenähnlicher gestikulieren lernen und so besser und realitätsnaher kommunizieren.
Wenn Menschen reden, sprechen die Hände und der Körper mit. „Gesten sind wichtig für die Organisation der gesprochenen Inhalte“, erklärt Stefan Kopp von der Technischen Fakultät der Universität Bielefeld. Wenn Personen ihre Wohnung beschreiben, begleiten sie ihre Worte oft automatisch mit Gesten. So kommt es vor, dass sie mit Gesten ein vorgestelltes Rechteck aufziehen und darin zeigen, wo sich die Möbel und andere Dinge befinden.
Kognitives Modell als Basis
„Auch Wegbeschreibungen sind gewöhnlich zu komplex, um sie in Sprache zu bringen. Gesten unterstützen solche Beschreibungen“, sagt Kopp. „Gesten tragen oft wichtige Informationen, die nicht in der Sprache sind. Sie senken so die geistige Beanspruchung des Sprechenden.“ Genau dieser nonverbale Aspekt fehlt Robotern und Avataren jedoch bisher meist in ihrer Kommunikation. Selbst wenn sie beim Sprechen ihre Hände bewegen, sind dies oft nur stereotype Gesten, die nichts mit dem Inhalt zu tun haben. Sie wirken daher künstlich.
Um die Kommunikation mit Alltagshelfern wie Haushaltsrobotern oder Avataren natürlicher zu machen, haben Kopp und sein Team nun ein Programm entwickelt, dass diesen das richtige Gestikulieren ermöglicht. Dafür modellierten sie, welche inneren Prozesse im Kopf ablaufen, wenn Menschen sprechen und gestikulieren. „Das kognitive Modell kann vorhersagen, welche Gesten zu einer geplanten Äußerung passen“, sagt Kopp. Auf dieser Basis entwickelten sie ihre neue Software.