Virtuelle Welten, realistisch vertont

Verantwortlicher Redakteur:in: Rainer Trummer 2 min Lesedauer

Anbieter zum Thema

Wissenschaftler an der Stanford University haben einen Algorithmus entwickelt, der Sound-Modelle für VR-Umgebungen in Sekunden kreieren soll.

(Quelle: Asier Romero-shutterstock.com)

Wissenschaftler an der Stanford University haben einen Algorithmus entwickelt, der Sound-Modelle für virtuelle Welten in Sekunden kreieren soll.

In Filmen oder Videospielen tragen Soundeffekte naturgemäß zu einer realistischeren Atmosphäre bei. Wenn ein Spieler eine Münze über den Kartentisch rollen lässt, scheint der Klang von Ohr zu Ohr zu wandern. Filmemacher nehmen den Ton vorher auf, der sich von Lautsprecher zu Lautsprecher bewegt.

Dieser Weg jedoch erweist sich in der virtuellen Welt als ungangbar, weil VR keinem Drehbuch folgt. Es ist kaum vorherzusagen, welche Geräusche ein Objekt verursachen könnte, oder wo diese Geräusche zu hören wären. Um den VR-Sound realistischer erklingen zu lassen, müssten Tontechniker sehr viele Sound-Modelle erzeugen, also Computer-Pendants der erwähnten Aufnahmen. Jedes Sound-Modell müsste dann das VR-System befähigen, ein passendes Geräusch für einen bestimmten Moment zusammenzusetzen. Bislang braucht man dafür einen Computer-Cluster, der für die Berechnung eines einzigen Sound-Modells stundenlang beschäftigt wäre. Dass zumal viele verschiedene Modelle nötig wären, um viele verschiedene Geräusche herzustellen, macht realistische Geräusche in interaktiven Umgebungen zu einem illusorischen Unterfangen.

Doch Wissenschaftler an der Stanford University haben nun einen Algorithmus entwickelt, der Sound-Modelle in Sekunden kreieren soll. Damit wäre es kostengünstig, Geräusche für viele verschiedene Objekte in der virtuellen Welt zu simulieren. In einer Szene mit Ton könne das neue Modell Geräusche so realistisch erstellen, wie die wesentlich langsameren und immer noch experimentellen Lösungen der Vergangenheit.

Algorithmen für virtuelle Welten

Die bisher verwendeten Algorithmen basieren auf den Arbeiten von Hermann von Helmholtz, einem Wissenschaftler des 19. Jahrhunderts. Die Helmholtz-Gleichung beschreibt die Ausbreitung des Schalls. Auf dieser Basis stehen die Algorithmen der 3D-Sound-Modelle: Software-Routinen für das Erstellen von Geräuschen, die realistisch erscheinen, weil Lautstärke und Richtung davon abhängen, wo sich der Anwender in Relation zur Schallquelle befindet.

Die bislang besten Algorithmen für 3D-Sound-Modelle beruhen auf der Randelement-Methode (boundary element method, BEM), die für den kommerziellen Einsatz aber zu kostspielig und langsam ist.

Mutterakkord als Inspiration

Professor Doug James und PhD Candidate Jui-Hsien Wang haben einen Algorithmus entwickelt, der Sound-Modelle um das hundert- bis tausendfache schneller berechnen soll, indem er die Helmholtz-Gleichung und BEM umgeht. Sie haben sich vom österreichischen Komponisten Fritz Heinrich Klein inspirieren lassen, der den „Mutterakkord“ entwickelt hat, einen Akkord, der sich aus zwölf Tönen und gleichzeitig aus zwölf Intervallen zusammensetzt. Die Wissenschaftler nennen ihren Algorithmus daher KleinPAT. Wie diese Lösung Sound-Modelle erstellt, erklären sie in einem Paper anlässlich der ACM SIGGRAPH 2019, der Konferenz zu Computergrafik und interaktiven Technologien.

Erfahren Sie hier mehr über Akustik in virtuellen Welten.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung