VR-Training: So kann man effektive Lernszenarien selbst erstellen

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

VR-Training: So kann man effektive Lernszenarien selbst erstellen

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print
Mit einer Lösung des Fraunhofer IGD lassen sich effektive Szenarien für das VR-Training an Maschinen, Anlagen und Abläufen erstellen. Die VR-Lernumgebung Machine@Hand 2.0 wird an der Hannover Messe 2021 vorgestellt.
VR-Training

Quelle: Fraunhofer IGD

  • Das Fraunhofer IGD aus Rostock stellt mit Machine@Hand 2.0 die zweite Version seiner VR-Lernumgebung an der diesjährigen Hannover Messe vor.
  • Mit Machine@Hand 2.0 lassen sich effektive Szenarien für das VR-Training an komplexen Maschinen, Anlagen und technischen Handlungsabläufen erstellen.
  • Die VR-Lernumgebung ist mit einem einfach zu bedienenden Autorenwerkzeug kombiniert.
  • Die VR-Module können einfach in bestehende Lernplattformen (LMS) und E-Learning-Module eingebunden werden. VR-Lernumgebungen sind vollständig interaktiv und helfen den Nutzenden dabei, die erlebten Lerninhalte effektiv und dauerhaft umzusetzen.

Hochkomplexe Maschinen, Anlagen und technische Handlungsabläufe müssen rund um die Uhr aktiv sein. Downtime kostet viel Geld. Darum erfordern die Bedienung und Wartung solcher Anlagen erstklassig geschultes Personal. Machine@Hand 2.0 ist eine virtuelle Lernumgebung des Fraunhofer-Instituts für Graphische Datenverarbeitung IGD, mit der in Virtual Reality (VR) die Bedienung, Montage oder Wartung komplexer Maschinen und technischer Handlungsabläufe auf einfache Weise trainiert werden kann. Eine Besonderheit von Machine@Hand 2.0 ist die Möglichkeit, dass mehrere Lernende gemeinsam komplexe, entscheidungsbasierte Szenarien üben können. So lassen sich Teamabläufe und kooperative Handlungsabläufe trainieren – das gab es in dieser Form bisher noch nicht. Dazu können Ausbilder im laufenden VR-Training als Remote Expert unterstützen und den Auszubildenden Hinweise geben. So lassen sich auch gefährliche Handlungsabläufe und Situationen in der kontrollierten und geschützten VR-Umgebung ideal simulieren und trainieren.

VR-Lernumgebungen ermöglichen eine effektive technische Ausbildung

Virtuelle Lernumgebungen sind aktuell und hocheffektiv. Und das nicht nur wegen der aktuellen Einschränkungen von Präsenzkursen. Im Gegensatz zu Lernmedien, die einfach konsumiert werden wie zum Beispiel Video oder Text/Video/AudioKombinationen, sind VR-Lernumgebungen vollständig auf die Interaktion mit den Lernenden ausgelegt. Das erhöht die situationsbedingte Aufmerksamkeit und unterstützt die Verarbeitung und den Transfer von Informationen in das Langzeitgedächtnis, was einen langfristigen Lernerfolg ermöglicht. Virtual Reality eröffnet den Lernenden die Möglichkeit, Lerninhalte in einer effizienten, fast spielerischen Weise zu erschließen. Komplexe, schwierige oder gefährliche Handlungsabläufe lassen sich in der simulierten Umgebung am virtuellen Maschinenmodell beliebig oft wiederholen. Individuelle Lernziele werden in der VR-Umgebung auf einfache Weise umgesetzt und helfen, Berührungsängste mit der geschulten Technologie zu vermindern. Komplexe Handlungsabläufe lassen sich in lebendige Szenarien einbinden. So trainieren Lernende das richtige Verhalten und korrekte Abläufe für unterschiedliche Situationen.

Machine@Hand 2.0 eröffnet völlig neue Möglichkeiten, um hocheffiziente VR-Training-Module zu entwickeln und das zu einem Bruchteil der Kosten und der Komplexität von bisherigen Lösungen. Insbesondere innerbetriebliche Ausbildungsabteilungen, Technische Schulen und Hochschulen sowie Anbieter von technischen Trainingsinhalten bieten die ideale Umgebung für den Einsatz von Machine@Hand 2.0. Dabei ist die Anwendung aber nicht auf rein technische Trainingsinhalte begrenzt. Auch für Medizin, Dienstleistung und Handel lassen sich komplexe Trainingsszenarien mit Hilfe der VR-Technologie entwickeln.

Module für das VR-Training mit Machine@Hand 2.0 erstellen

Im neuesten Release des virtuellen Trainingstools können die VR-Module in einer Autorenumgebung erstellt werden, die sehr stark an die Funktionalität und die Benutzeroberfläche moderner Präsentationsprogramme angelehnt ist. Auch das Erstellen der Trainings direkt in VR wird über eine in Kürze zur Verfügung stehende VR-Authoring-Funktion möglich sein. Eine Programmierung oder teure externe Dienstleister sind dadurch nicht nötig. CAD-Daten und 3D-Modelle lassen sich direkt in das Machine@Hand 2.0 Autoren-Werkzeug importieren und dienen als Vorlagen für die Elemente in der VR-Lernumgebung. Es existiert eine Vielzahl von Bibliotheken, aus denen sich die unterschiedlichsten Elemente zu komplexen Lernszenarien zusammenfügen lassen. Auf diesem Weg ist die Erstellung von immersiven und vor allem interessanten VR-Lerninhalten möglich. Dies erlaubt die einfache Integration in bestehende E-Learning-Produktionsabläufe und ergänzt vorhandene Autorenwerkzeuge um eine effektive VR-Komponente.

In einem Video erhalten Interessenten in Kürze auf https://www.fh-igd.de/machine-at-hand konkrete Eindrücke davon, wie sich die VR-Lernumgebung ihren Anwendern präsentiert. Auf der Hannover Messe können sich Besucher des virtuellen Standes von der Funktionalität überzeugen und ab dem 25. März Termine zum Networking vereinbaren: https://www.hannovermesse.de/de/networking.

Technische Voraussetzungen für den Einsatz

Die technischen Voraussetzungen für die VR-Lernumgebung bewegen sich auf einem Niveau, das dem moderner Spielecomputer entspricht. Eine aktuelle CPU mit genügend Arbeitsspeicher, leistungsstarke Grafikkarte und ein VR-Set (VR-Brille und Hand Controller/Paddles) reichen aus. Module für das VR-Training, die mit Machine@Hand 2.0 erstellt wurden, lassen sich in bestehende E-Learning-Module und technische Plattformen wie Learning Management Systeme (LMS) einbinden. Die aktuelle Standardschnittstelle xAPI wird dabei noch in diesem Jahr unterstützt. In einen E-Learning-Produktionsablauf, zum Beispiel basierend auf dem ADDIE Modell, lässt sich die Software problemlos integrieren.

Machine@Hand unterstützt die folgenden 3D-Formate: FBX, GLTF, GLB, OBJ, STL, PLY, 3MF sowie Unity Asset-Bundles.

Bild: Mit Machine@Hand 2.0 lassen sich nicht nur technische Trainings in VR durchführen, sondern auch einfach selbst gestalten. Bildquelle: Fraunhofer IGD

Weitere Informationen: https://www.igd.fraunhofer.de/projekte/machinehand, https://www.igd.fraunhofer.de/veranstaltungen/hannover-messe-2021, https://www.hannovermesse.de/aussteller/fraunhofer-institut-igd/L837482

Erfahren Sie hier mehr über Ausbildung mit VR in der Prozessindustrie.

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments

Andere Leser haben sich auch für die folgenden Artikel interessiert

Die am Fraunhofer FEP entwickelten bidirektionalen OLED-Mikrodisplays wurden erstmals erfolgreich in eine Demo-Datenbrille integriert, mit der sowohl AR- und VR- Anwendungen als auch 2D- und 3D-Inhalte dargestellt werden können. Auf der awe europe vom 19. bis 20. Oktober 2017 im MOC München wird die neue Datenbrille erstmals am Stand des Fraunhofer FEP, Nr. 420, vorgestellt.

Tragen Sie sich jetzt kostenlos und unverbindlich ein, um keinen Artikel mehr zu verpassen!

    * Jederzeit kündbar

    Entdecken Sie weitere Magazine

    Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

    Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.