Viele Entwickler virtueller Welten tun sich schwer damit, in großem Maßstab und auf effiziente Weise glaubhafte, komplexe Oberflächenstrukturen zu erstellen. Das könnte sich nun mit besonderen neuronalen Netzen ändern.
In der Tat ist das Design von akkuraten Texturen etwa von kleinen Wellen in einem Fluss, Betonwänden oder Blattmustern eine anspruchsvolle Aufgabe für die Künstler. Eine Vielfalt von ortsveränderlichen Texturen in der realen Welt lässt sich für Spiele oder virtuelle Welten neu erschaffen, aber die vorhandenen Verfahren erweisen sich als mühsam und zeitraubend.
Ein Team von Informatikern hat sich nun der Herausforderung angenommen und eine ungewöhnliche, auf künstlicher Intelligenz basierende Methode entwickelt, die ein Netzwerk darin trainiert, kleine Texturen zu größeren zu erweitern. Diese Methode bedient sich einer Technik namens Generative Adversarial Networks (GANs). Derartige Netze bestehen aus zwei gegeneinander arbeitenden neuronalen Netzen, einem, das die Daten erzeugt (Generator), und einem anderen (Discriminator), das die Authentizität der Daten prüft. So sollen die Computer kleine Musterbeispiele in umfangreichere Texturen erweitern können, die den Originalen am besten entsprechen.
„Unser Ansatz kommt gut mit ortsveränderlichen Texturen zurecht, und das ohne aufwendige semantische Beschreibung der großen Texturen“, sagt Yang Zhou, Hauptautor der Arbeit und Dozent an der Shenzhen University und der Huazhong University of Science & Technology. „Er bewältigt sehr anspruchsvolle Texturen, mit denen unseres Wissens kein anderes Modell umgehen kann. Die Ergebnisse sind realistische Darstellungen in hoher Auflösung, auf effizient Weise und in viel größerem Maßstab.“
Das grundlegende Ziel der muster-basierten Textursynthese besteht darin, eine Textur zu erschaffen, die größer ist, als das Ausgangsmuster, die dessen visuelle Eigenschaften wiedergibt, ohne ihm dabei komplett zu gleichen, und die realistisch erscheint. Beispiele solcher ortsveränderlicher Texturen umfassen solche mit großräumig irregulären Strukturen oder solche die räumlich im Hinblick auf Farbe, Orientierung oder Größe variieren. In ihrer Arbeit testeten die Wissenschaftler ihr Verfahren an komplexen Beispielen wie Pfauenfedern oder einer rissigen Baumrinde, anscheinend endlos in ihren repetitiven Strukturen.
Zhou und seine Mitarbeiter, Zhen Zhu und Xiang Bai (Huazhong University ), Dani Lischinski (The Hebrew University of Jerusalem), Daniel Cohen-Or (Shenzhen University und Tel Aviv University) und Hui Huang (Shenzhen University) werden ihre Arbeit an der SIGGRAPH 2018 vom 12. bis 16. August in Vancouver, Kanada, präsentieren. Das jährliche Treffen versammelt die führenden Experten und Kreativen an vorderster Front der Computergrafik und der interaktiven Verfahren.
Das Verfahren der Wissenschaftler zielt darauf, den Generator darin zu schulen, einen beliebigen, aus einem Muster gewonnenen Texturblock zu erweitern (auf die doppelte Größe), so dass das erweiterte Ergebnis dem enthaltenen Beispielblock visuell ähnelt. Diese visuelle Ähnlichkeit zwischen der automatisch generierten Erweiterung und dem tatsächlich enthaltenen Block prüft anschließend der Discriminator. Dabei wird, typisch für GANs, der Discriminator parallel zum Generator darin trainiert, zwischen den echten Blöcken aus dem Ausgangsblock und jenen zu unterscheiden, die der Generator selbst erzeugt hat.
Zhou sagt: „Erstaunlicherweise haben wir feststellen können, dass das trainierte Netzwerk mit einer derart verständlich einfachen, sich selbst kontrollierenden Trainingsstrategie fast perfekt mit einer großen Spanne von Texturen klar kommt, seien es stationäre oder nicht-stationäre.“
Das Verfahren soll die Texturspezialisten beim Design von Videospielen, virtueller Realität und Animationen unterstützen. Wenn das Training in diesen gegnerischen Netzen für jedes mögliche Texturbeispiel stattfindet, kann das Verfahren auch für das automatisierte Erzeugen erweiterter Texturen angewandt werden, die das Doppelte der Ausgangsgröße erreichen. Zusätzlich plant die Forschergruppe ein „universelles“ Modell mit einem großen Textur-Datensatz zu trainieren und die Steuerung durch den Anwender zu verbessern. Für die Texturspezialisten wird die über Interaktion gesteuerte Erzeugung mit Interaktion sogar sinnvoller sein, weil diese dazu tendieren, Texturen an ihr eigenes Design anpassen zu wollen.
Bild: Beispielbilder einer „Textur-Synthese“ mit künstlicher Intelligenz. Credit: Zhen Zhu, Xiang Bai, Dani Lischinski, Daniel Cohen-Or und Hui Huang