Fell realistischer und schneller rendern

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Fell realistischer und schneller rendern

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Kommende Generationen computer-generierter Tiere in „King Kong“ oder „König der Löwen“ könnten weit realistischer aussehen. Eine Gruppe von Informatikern an der University of California San Diego und Berkeley entwickelte Lösung für das Rendering von Fell leistet vielleicht einen Beitrag dazu. Sie beruht auf einem abgewandelten Konzept der Volumenstreuung.

uc_san_diego_hamster_web

Kommende Generationen computer-generierter Tiere in „King Kong“ oder „König der Löwen“ könnten weit realistischer aussehen. Eine Gruppe von Informatikern an der University of California San Diego und Berkeley entwickelte Lösung für das Rendering von Fell leistet vielleicht einen Beitrag dazu. Sie beruht auf einem abgewandelten Konzept der Volumenstreuung.

Die Entwickler haben eine Methode entdeckt, mit der sich die Simulation von Fell erheblich verbessern lässt, und vor allem, wie das Licht durch den Pelz reflektiert wird. Ihre Erkenntnisse haben sie an der SIGGRAPH Asia in Thailand der Öffentlichkeit präsentiert.  Ravi Ramamoorthi, einer der Seniorautor der Studie und Direktor der Center for Visual Computing an der UC San Diego, erklärt: „Unser Modell erzeugt wesentlich genauere Simulation und ist zehnmal schneller als das, was derzeit möglich ist.“ Das Verfahren lässt sich vielseitig einsetzen, von Videospielen über computer-generierte Spezialeffekte bis hin zu computer-animierten Filmen.

Die derzeit gebräuchlichen Modelle sind auf computer-generiertes Haar spezialisiert, doch sie funktionieren weniger gut bei Fell. Denn diese Modelle lassen den zentralen, zylindrischen Kern, die Medulla, außer Acht, über die jedes Haar in einem Fell verfügt. Die Medulla ist im Tierhaar deutlich größer als in einem menschlichen, und die Passage des Lichts und seine Streuung durch diesen Haarkern prägt entscheidend das Erscheinungsbild des Fells. Bislang haben die meisten Wissenschaftler die Medulla ignoriert und Modelle entwickelt, welche den Lichtstrahl auf seinem Weg von einer Faser des Fells zu einer anderen verfolgen. Das erforderte einen enormen Rechenaufwand und erwies sich zumal als teuer und langwierig.

Das Team der UC San Diego und UC Berkeley machte sich dagegen das Konzept der Volumenstreuung zunutze, um schnell abzuschätzen, wie das Licht rund um die Fasern abgelenkt wird. Die Idee beschreibt, wie Licht an einem Punkt in die Oberfläche eines durchscheinenden Objekts wie Haar oder Pelz eintritt, mit dem jeweiligen Baustoff des Objekts interagiert und schließlich andernorts wieder austritt. Der Ansatz ist hinlänglich bekannt und wird oft in der Simulation und Visualisierung eingesetzt.

Um die Eigenschaften der Volumenstreuung auf Fellfasern zu übertragen, setzten die Forscher ein neuronales Netz ein. „Wir passen die Eigenschaften der Volumenstreuung an die Fellfasern an“, sagt Ph. D. Student Ling-Qi Yan von der UC Berkeley, der an der Studie unter der Leitung der Informatik-Professoren Ravi Ramamoorthi und Henrik Wann Jensen mitgewirkt hat. „Für diese Anpassung gibt es keinen physikalisch oder mathematisch eindeutigen Weg. Daher mussten wir ein neuronales Netz verwenden, um die beiden unterschiedlichen Welten zusammenzuführen.“

Das neuronale Netz war schon nach dem Training mit einer Szene in der Lage, die Volumenstreuung auf alle anderen präsentierten Szenen anzuwenden. Die Simulationen liefen, verglichen mit der herkömmlichen Vorgehensweise, in zehnfachem Tempo ab und der sich daraus ergebende Algorithmus funktioniert mit Pelz genauso gut wie mit Haar. Sogar menschliches Haar erscheint mit der neuen Methode realistischer gerendert. Im nächsten Schritt soll die Methode für das Echtzeitrendering von Fell und Haar zum Einsatz kommen.

Literatur: Ling-Qi Yan und Weilun Sun, UC Berkeley; Henrik Wann Jensen und Ravi Ramamoorthi, UC San Diego,  A BSSRDF Model for Efficient Rendering of Fur with Global Illumination

DOI: 10.1145/3130800.3130802

Video von computer-animierten Tieren: https://youtu.be/n4DKNbf4Dfc

Bild: Rendering eines Hamsters mit der neuen Methode. Bild: University of California San Diego. 

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments

Andere Leser haben sich auch für die folgenden Artikel interessiert

Tragen Sie sich jetzt kostenlos und unverbindlich ein, um keinen Artikel mehr zu verpassen!

* Jederzeit kündbar

Entdecken Sie weitere Magazine

Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.