Mask-Bot: Roboter mit menschlichem Antlitz

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Mask-Bot: Roboter mit menschlichem Antlitz

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print
tum_roboter

Münchener Roboterforscher haben zusammen mit japanischen Wissenschaftlern eine raffinierte technische Lösung entwickelt, mit der Roboter ein Gesicht erhalten: Ein Beamer projiziert das 3D-Bild eines Gesichts von hinten in eine Kunststoffmaske, Sprache und Mimik steuert ein Computer. Fertig ist Mask-Bot, ein verblüffend menschenähnlich sprechender Kunststoffkopf. Bevor er in Zukunft Robotern ein menschliches Anlitz verleiht, könnte er bald schon die Gesprächspartner in Videokonferenzen als eine Art Avatar an den Tisch holen. Das Projekt ist Teil des Münchener Roboter-Exzellenzclusters CoTeSys.


Schlichte Dialoge kann er schon. „Rainbow“ sagt Dr. Takaaki Kuratate. Und schon klimpert Mask-Bot mit den Augen und verblüfft den menschlichen Gesprächspartner mit einem elaborierten Satz – auf Englisch natürlich. Übersetzt ins Deutsche sagt er: „Wenn sich Sonnenstrahlen in den feinen Wassertropfen der Atmosphäre brechen, dann entsteht ein Regenbogen.“ Dabei bewegt er ein wenig den Hals und hebt vielsagend die Augenbrauen.

Was fast täuschend echt wie ein sprechender Mensch aussieht, ist der Prototyp eines neuen Robotergesichts, das ein Team am Institut für Kognitive Systeme (ICS) der TU München in Kooperation einer Gruppen aus Japan entwickelt hat. „Mask-Bot wird die Art und Weise prägen, wie wir Menschen in Zukunft mit Robotern kommunizieren“, prognostiziert Prof. Gordon Cheng, der Leiter des ICS-Teams. Gleich mehrere Neuheiten haben die Entwickler dafür realisiert.

Da ist einmal die große Präsenz eines Gesichts in 3D. Bislang verpassen zwar schon manche andere Gruppen ihren Maschinen ein dreidimensionales Antlitz, doch sind diese eher comicartig animiert. Mask-Bot hingegen hat einen dreidimensionalen Kopf: eine transparente Kunststoffmaske, auf die ein hinter ihr befestigter Beamer ein menschliches Gesicht passgenau und dreidimensional projiziert und ihr so Individualität verleiht. Auf diese Weise wirkt das Gesicht auch von der Seite her noch sehr realistisch.

Viele vergleichbare Systeme projizierten Gesichter wie im Kino von vorne. „Walt Disney“, nennt Kuratate einen Pionier des Felds, „ließ schon in den 1960er-Jahren für seine Spukhaus-Installationen die Gesichter Grimassen schneidender Schauspieler auf Büsten projizieren, die damit zu sprechenden Köpfen wurden.“ Während Walt Disney die Büsten von vorne anstrahlte, ist es mit Mask-Bot jetzt möglich, alle Komponenten für das Gesicht in einem Roboter-Kopf von außen unsichtbar unterzubringen.

Dafür musste das CoTeSys-Team mit einer stark stauchenden Faktor 0,25-Fischaugenlinse mit einem Makroadapter dafür sorgen, dass bei einem Abstand von nur zwölf Zentimetern zwischen Linse und Gesichtsmaske dort auch wirklich ein komplettes Gesicht ankommt. Ein besonders starker, kleiner Beamer sowie eine spezielle Leuchtschicht-Imprägnierung auf der Innenseite der Kunststoffmaske verhelfen Mask-Bot obendrein zu so viel Leuchtkraft, dass die Kommunikation Mensch-Maschine auch bei Tageslicht möglich ist. „Bei uns können Sie die Vorhänge offen lassen“, erklärt Kuratate lachend.

Dieser Teil des neuen Systems könnte schon bald in Videokonferenzen angewandt werden. „Mask-Bot kann dabei das bislang übliche Monitorbild einer Person durch eine echte Nachbildung ersetzen, die mit am Tisch sitzt und genauso aussieht und spricht“, sagt Takaaki Kuratate.

Als Gesicht für einen Roboter muss Mask-Bot allerdings unabhängig von einer Videoübertragung sein, hinter der ja ein sprechender Mensch steht. Ein neu entwickeltes Programm sorgt dafür, dass dem Computer bereits ein normales, zweidimensionales Foto ausreicht, um es richtig proportioniert in eine Projektion für eine dreidimensionale Maske umzuwandeln. Weitere Algorithmen verleihen dem Gesicht Mimik und Sprache.

Für das Mienenspiel hat Takaaki Kuratate die „Talking Head Animation Engine“ entwickelt: Zunächst sammelt ein spezielles Kamerasystem zahlreiche Informationen über das Mienenspiel menschlicher Probanden. Daraus filtert und abstrahiert ein Computer jene Gesichtsausdrücke, die zu einem bestimmten Laut passen, wenn er gesprochen wird. Aus jedem dieser Gesichtsausdrücke wurde ein Set an Gesichtspunkten extrahiert, die der Computer nun jedem neuen Gesicht zuordnen und es so beleben kann. Eine „Emotion Synthesis Software“ sorgt bei Bedarf für eine emotionale Färbung: dass jemand fröhlich, traurig oder wütend schaut.

Mask-Bot kann bereits realistisch nachsprechen, was ihm über eine Tastatur eingetippt wird. Englisch, Japanisch und bald auch Deutsch: Eine mächtige „Text To Speech“-Programmierung setzt den Text in Audiosignale um. Auf Knopfdruck einmal als Frauen- oder Männerstimme, einmal leiser, ein anderes Mal lauter und fröhlicher.

Gesprochene Sprache versteht Mask-Bot allerdings noch kaum. Hören und passende Antworten geben, kann Mask-Bot derzeit nur auf fest programmierten Bahnen. Das allerdings ist kein Spezifikum der neuen Maschine: Die Entwicklung von Programmen, mit denen Roboter tatsächlich in Echtzeit hören und verstehen können, was ein menschliches Pendant gerade sagt, um dann auch noch passend zu antworten, das bleibt weltweit ein riesiges Forschungsthema: „Dafür brauchen wir mehr denn je unsere bereits etablierte internationale Zusammenarbeit“, weiß Kuratate.

Mit Mask-Bot wählt die CoTeSys-Gruppe einen anderen Weg als jenen, die Mimik mit Gesichtseinzelteilen und Dutzenden darunter liegender Mini-Motoren zu imitieren. Denn Mask-Bot wird in der Lage sein, viel schneller als ein recht träges mechanisches Antlitz Sprache und Mimik zu kombinieren. So tüfteln die Münchener Erfinder schon am Nachfolger Mask-Bot 2. Hier werden Maske, Projektor und Computersteuerung in einem mobilen Roboter stecken. Kostete Prototyp 1 noch knapp unter 3.000 Euro, sollen bei seinem Nachfolger 400 Euro in Reichweite kommen. „Neben der Verwendung in Videokonferenzen könnten solche Systeme bald Gesprächspartner für ältere Menschen sein, wenn sie alleine Zeit verbringen müssen“ meint Kuratate.

Die Entwicklung von Mask-Bot wurde erst möglich durch die Kooperation mit dem National Institute of Advanced Industrial Science and Technology in Japan (AIST).


Fotos (Copyright: Uli Benz / TU München):
http://mediatum.ub.tum.de/node;fwhtvb-eyjjyv-fkqdts?cfold=1091463&dir=1091463&id=1091463

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

avatar
  Abonnieren  
Benachrichtige mich bei

Andere Leser haben sich auch für die folgenden Artikel interessiert

Noitom, Entwickler der VR-Plattform Alice haben an der Tokyo Game Show ihre neue, schlüsselfertige Edutainment-Mixed-Reality-Lösung namens Alice Space vorgestellt, die für Museen und wissenschaftliche Einrichtungen konzipiert wurde. Die Multiplayer-Lösung befasst auf spielerische, aber dennoch instruktive Weise mit der Raumforschung. 

Currenta hat immersive Videos – Filme "zum Eintauchen" – über verschiedene Berufsbilder in der chemischen Industrie drehen lassen. Damit bietet das Unternehmen, das den Chemiepark mit den Standorten Leverkusen, Dormagen und Krefeld-Uerdingen betreibt, jungen Frauen und Männern ab sofort die Möglichkeit, unterschiedliche Berufe bei Currenta aus der Ich-Perspektive zu erleben.

Tragen Sie sich jetzt kostenlos und unverbindlich ein, um keinen Artikel mehr zu verpassen!

* Jederzeit kündbar

Entdecken Sie weitere Magazine

Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.