21.02.2018 – Kategorie: IT, Kommunikation, Technik

Fell realistischer und schneller rendern

uc_san_diego_hamster_web

Kommende Generationen computer-generierter Tiere in „King Kong“ oder „König der Löwen“ könnten weit realistischer aussehen. Eine Gruppe von Informatikern an der University of California San Diego und Berkeley entwickelte Lösung für das Rendering von Fell leistet vielleicht einen Beitrag dazu. Sie beruht auf einem abgewandelten Konzept der Volumenstreuung.

Kommende Generationen computer-generierter Tiere in „King Kong“ oder „König der Löwen“ könnten weit realistischer aussehen. Eine Gruppe von Informatikern an der University of California San Diego und Berkeley entwickelte Lösung für das Rendering von Fell leistet vielleicht einen Beitrag dazu. Sie beruht auf einem abgewandelten Konzept der Volumenstreuung.

Die Entwickler haben eine Methode entdeckt, mit der sich die Simulation von Fell erheblich verbessern lässt, und vor allem, wie das Licht durch den Pelz reflektiert wird. Ihre Erkenntnisse haben sie an der SIGGRAPH Asia in Thailand der Öffentlichkeit präsentiert.  Ravi Ramamoorthi, einer der Seniorautor der Studie und Direktor der Center for Visual Computing an der UC San Diego, erklärt: „Unser Modell erzeugt wesentlich genauere Simulation und ist zehnmal schneller als das, was derzeit möglich ist.“ Das Verfahren lässt sich vielseitig einsetzen, von Videospielen über computer-generierte Spezialeffekte bis hin zu computer-animierten Filmen.

Die derzeit gebräuchlichen Modelle sind auf computer-generiertes Haar spezialisiert, doch sie funktionieren weniger gut bei Fell. Denn diese Modelle lassen den zentralen, zylindrischen Kern, die Medulla, außer Acht, über die jedes Haar in einem Fell verfügt. Die Medulla ist im Tierhaar deutlich größer als in einem menschlichen, und die Passage des Lichts und seine Streuung durch diesen Haarkern prägt entscheidend das Erscheinungsbild des Fells. Bislang haben die meisten Wissenschaftler die Medulla ignoriert und Modelle entwickelt, welche den Lichtstrahl auf seinem Weg von einer Faser des Fells zu einer anderen verfolgen. Das erforderte einen enormen Rechenaufwand und erwies sich zumal als teuer und langwierig.

Das Team der UC San Diego und UC Berkeley machte sich dagegen das Konzept der Volumenstreuung zunutze, um schnell abzuschätzen, wie das Licht rund um die Fasern abgelenkt wird. Die Idee beschreibt, wie Licht an einem Punkt in die Oberfläche eines durchscheinenden Objekts wie Haar oder Pelz eintritt, mit dem jeweiligen Baustoff des Objekts interagiert und schließlich andernorts wieder austritt. Der Ansatz ist hinlänglich bekannt und wird oft in der Simulation und Visualisierung eingesetzt.

Um die Eigenschaften der Volumenstreuung auf Fellfasern zu übertragen, setzten die Forscher ein neuronales Netz ein. „Wir passen die Eigenschaften der Volumenstreuung an die Fellfasern an“, sagt Ph. D. Student Ling-Qi Yan von der UC Berkeley, der an der Studie unter der Leitung der Informatik-Professoren Ravi Ramamoorthi und Henrik Wann Jensen mitgewirkt hat. „Für diese Anpassung gibt es keinen physikalisch oder mathematisch eindeutigen Weg. Daher mussten wir ein neuronales Netz verwenden, um die beiden unterschiedlichen Welten zusammenzuführen.“

Das neuronale Netz war schon nach dem Training mit einer Szene in der Lage, die Volumenstreuung auf alle anderen präsentierten Szenen anzuwenden. Die Simulationen liefen, verglichen mit der herkömmlichen Vorgehensweise, in zehnfachem Tempo ab und der sich daraus ergebende Algorithmus funktioniert mit Pelz genauso gut wie mit Haar. Sogar menschliches Haar erscheint mit der neuen Methode realistischer gerendert. Im nächsten Schritt soll die Methode für das Echtzeitrendering von Fell und Haar zum Einsatz kommen.

Literatur: Ling-Qi Yan und Weilun Sun, UC Berkeley; Henrik Wann Jensen und Ravi Ramamoorthi, UC San Diego,  A BSSRDF Model for Efficient Rendering of Fur with Global Illumination

DOI: 10.1145/3130800.3130802

Video von computer-animierten Tieren: https://youtu.be/n4DKNbf4Dfc

Bild: Rendering eines Hamsters mit der neuen Methode. Bild: University of California San Diego. 


Teilen Sie die Meldung „Fell realistischer und schneller rendern“ mit Ihren Kontakten:


Scroll to Top