Maschinelles Lernen: Das Anziehen besser aussehen lassen

Man mag die vielen damit verbundenen Schritte und Bewegungen nicht würdigen, wenn man sich morgens anzieht. Aber genau das müsste man, wollte man das Anziehen erfassen und diesen Vorgang für Computer-Animationen besser simulieren.

Informatiker vom Georgia Institute of Technology und von Google Brain, der Google-Abteilung für künstliche Intelligenz, haben eine neue Berechnungsmethode vorgeschlagen, die sich verschiedener Verfahren des maschinellen Lernens bedient. Sie soll den mehrstufigen Prozess des Ankleidens erfolgreich und realistisch simulieren helfen. Dafür werden mehrere unterschiedliche Interaktionen zwischen dem dargestellten Charakter und seiner oder ihrer Kleidung einbezogen, hauptsächlich geführt vom Tastsinn einer Person.

Die Animation von sich ankleidenden Charakteren gestaltet sich durch die komplexen Interaktionen zwischen Charakter und der simulierten Bekleidung sehr anspruchsvoll. Die Entwickler des neuen Verfahrens merken an, dass sich die meisten Charakteranimationen mit statischen Umgebungen auseinandersetzen, die nur schwach auf die Bewegungen des Charakters reagieren. Aber in Wahrheit kann die Bekleidung kleine Änderungen der Körperposition sofort und sehr deutlich erwidern. Stoffe neigen zu Falten, sie haften am Körper und sie bewirken bestimmte Empfindungen auf der Haut.

Eine weitere ungewöhnliche Hürde beim animierten Bekleiden liegt darin, dass der Charakter eine längere Bewegungssequenz vollziehen muss, die eine ganze Reihe von untergeordneten Aufgaben umfasst, etwa ein Hemd vorn zu greifen, den Kopf durch den Kragen oder die Hand durch den Ärmel zu führen.

Das Anziehen erscheine vielen von uns als einfach, weil wir es jeden Tag tun. Doch tatsächlich mache es die Dynamik der Stoffe sehr anspruchsvoll, diesen Vorgang von Grund auf zu erlernen, so Alexander Clegg, Hauptautor der Arbeit und PhD-Student am Georgia Institute of Technology. Mit der Simulation lehre man ein neuronales Netz. Damit lassen sich die komplexen Aufgaben in kleinere Teile mit wohldefinierten Zielen zerlegen. So könne der Charakter die Aufgabe tausende Male probieren, und man signalisiere ihm Belohnung oder Tadel, wenn er an seinem Vorgehen etwas in zuträglicher oder abträglicher Form ändern sollte.  

Das Verfahren bringt anschließend das neuronale Netz in einem Schritt auf einen neuen Stand, so dass die beobachteten positiven Veränderungen in der Zukunft mit größerer Wahrscheinlichkeit eintreten. So lernt der Charakter, wie ihm die Aufgabe am besten gelingt. Clegg und seine Mitarbeiter am Georgia Tech, Wenhao Yu, Greg Turk und Karen Liu, sowie der Jie Tan von Google Brain, werden ihre Arbeit an der Siggraph Asia 2018 präsentieren, die vom 4. bis 7. Dezember in Tokyo stattfinden wird.

Im Rahmen ihrer Studie haben die Forscher ihr Konzept anhand unterschiedlicher Bekleidungsaktionen demonstriert: das Anziehen eines T-Shirts, das Überwerfen einer Jacke und das roboter-gestützte Schlüpfen in einen Ärmel. Mit dem trainierten neuronalen Netzwerk konnten sie eine komplexe Nachstellung der verschiedenen Möglichkeiten erreichen, wie sich der Charakter anzieht. Entscheidend ist dabei, den Tastsinn einzubeziehen und so die Hürden für die Simulation zu überwinden. Eine sorgfältige Auswahl der Beobachtungen und die Belohnungsfunktionen im trainierten Netz seien für das Gelingen des Vorgehens ausschlaggebend.  Im Ergebnis ermöglicht der neuartige Ansatz nicht nur einzelne Sequenzen des Ankleidens, sondern eine Steuerung des Charakters insofern, als dieser sich nun unter verschiedenen Bedingungen erfolgreich ankleiden kann.

Publikation: https://www.cc.gatech.edu/~aclegg3/projects/learning-dress-synthesizing.pdf

Video: https://youtu.be/ixmE5nt2o88

Bild: Informatiker vom Georgia Institute of Technology und von Google Brain, der Google-Abteilung für künstliche Intelligenz, haben eine neue Berechnungsmethode vorgeschlagen, die sich verschiedener Verfahren des maschinellen Lernens bedient. Sie soll den mehrstufigen Prozess des Ankleidens erfolgreich und realistisch simulieren helfen. Courtesy SIGGRAPH Asia

0
RSS Feed

Hat Ihnen der Artikel gefallen?
Abonnieren Sie doch unseren Newsletter und verpassen Sie keinen Artikel mehr.

Mit einem * gekennzeichnete Felder sind Pflichtfelder!

Neuen Kommentar schreiben

Entdecken Sie die Printmagazine des WIN-Verlags