Training für Drohnen: Mit zweistufigem Ansatz sicher auf Kurs

Verantwortlicher Redakteur:in: Rainer Trummer 4 min Lesedauer

Anbieter zum Thema

Ein neuartiges zweistufiges Verfahren schafft eine Möglichkeit, vollständig mit simulierten Daten trainierte Drohnen sicher in der realen Welt einzusetzen.

(Quelle: Carnegie Mellon University)
  • Um autonom fliegen zu können, müssen Drohnen verstehen, was sie in ihrer Umgebung wahrnehmen, und auf dieser Grundlage Entscheidungen treffen.

  • Eine neuartige Methode, die von Forschern der Carnegie-Mellon-Universität entwickelt wurde, ermöglicht es den Fluggeräten, Wahrnehmung und Handlung getrennt voneinander zu erlernen.

Der zweistufige Ansatz überwindet die Lücke zwischen Simulation und Realität und schafft eine Möglichkeit, Drohnen, die vollständig mit simulierten Daten trainiert wurden, sicher in der realen Kursnavigation einzusetzen.

"Normalerweise werden Drohnen, sogar wenn sie mit den besten fotorealistischen Simulationsdaten trainiert wurden, in der realen Welt versagen, weil die Beleuchtung, Farben und Texturen noch zu unterschiedlich sind, um sie zu interpretieren", sagte Rogerio Bonatti, ein Doktorand am Institut für Robotik der Fakultät für Informatik. "Unser Wahrnehmungsmodul wird mit zwei Modalitäten trainiert, um die Robustheit gegenüber Umweltvariabilitäten zu erhöhen.

Die erste Modalität, mit deren Hilfe die Wahrnehmung der Drohne trainiert wird, ist das Bild. Die Forschenden benutzten einen fotorealistischen Simulator und schufen damit eine Umgebung, die die Drohne, ein Fußballfeld und rote quadratische Tore umfasste. Diese Tore befanden sich in zufälliger Anordnung ein Stück über den Boden und gaben damit die Flugbahn vor. Dann baute das Team aus Tausenden von zufällig generierten Drohnen- und Torkonfigurationen einen großen Datensatz mit simulierten Bildern auf.

Die zweite Modalität, die es für die Wahrnehmung braucht, ist die Kenntnis von der Position und Orientierung der Tore im Raum, die sich mit Hilfe des Datensatzes der simulierten Bilder herstellen ließ.

Das Training des Modells unter Verwendung mehrerer Modalitäten führt zu einer robusten Repräsentation der Erfahrung, das heißt, die Drohne kann das Wesen des Feldes und der Tore in einer Weise erfassen, die es erlaubt, die Simulation in die Realität zu übernehmen. Die Komprimierung der Bilder auf eine geringere Pixelzahl unterstützt diesen Prozess. Das Lernen aus einer niedrig aufgelösten Darstellung ermöglicht es dem Modell, durch das visuelle Rauschen in der realen Welt hindurch zu sehen und die Tore zu identifizieren.

Wenn die Wahrnehmung erlernt ist, setzen die Forschenden die Drohne innerhalb der Simulation ein, damit sie ihre Steuerung justieren kann -- oder die Art und Weise, wie sie sich real bewegt. In diesem Fall lernt sie, mit welchem Tempo sie durch den Kurs und die Tore navigieren muss. Da es sich um eine simulierte Umgebung handelt, kann ein Programm vor dem Einsatz die optimale Flugbahn der Drohne berechnen. Diese Methode ist gegenüber dem manuell überwachten Lernen mit einem erfahrenen Bediener zu bevorzugen, denn das Lernen in der realen Welt kann gefährlich, zeitaufwändig und teuer sein.

Die Drohne lernt, durch den Kurs zu navigieren, indem sie die von den Forschern diktierten Trainingsschritte durchläuft. Bonatti sagte, er fordere der Drohne bestimmte Geschicklichkeiten und Richtungswechsel ab, die sie in der realen Welt brauche. "Ich bringe die Drohne dazu, sich nach links und rechts in verschiedenen Bahnformen zu drehen, die schwieriger werden, je mehr visuelles Rauschen ich hinzufüge. Der Roboter lernt nicht, eine bestimmte Bahn nachzubilden. Vielmehr lernt er durch das strategische Steuern der simulierten Drohne alle Elemente und Bewegungsarten, die es der Drohne ermöglichen, autonom zu fliegen", sagt Bonatti.

Bonatti möchte die aktuelle Technologie der Fähigkeit des Menschen annähern, Umweltsignale zu interpretieren. "Der größte Teil der bisherigen Arbeit an autonomen Drohnenrennen konzentrierte sich auf die Entwicklung eines Systems, das mit zusätzlichen Sensoren und Software ergänzt wird, mit dem alleinigen Ziel der Geschwindigkeit. Stattdessen zielten wir darauf ab, ein rechnergestütztes, von der Funktion des menschlichen Gehirns inspiriertes Gefüge zu schaffen, um visuelle Informationen über eine verborgene Repräsentation den richtigen Steueraktionen zuzuordnen", sagte Bonatti.

Aber Drohnenrennen ist nur eine Möglichkeit für diese Art des Lernens. Die Methode der Trennung von Wahrnehmung und Kontrolle könnte auf viele verschiedene Aufgaben der künstlichen Intelligenz wie Autofahren oder Kochen angewandt werden. Während sich dieses Modell auf Bilder und Positionen stützt, um die Wahrnehmung zu trainieren, könnten andere Modalitäten wie Geräusche und Formen für Aufgaben wie das Identifizieren von Autos, Wildtieren oder Objekten verwendet werden.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Zu den Forschern, die zu dieser Arbeit beitragen, gehören Sebastian Scherer von der Carnegie Mellon-Universität sowie Ratnesh Madaan, Vibhav Vineet und Ashish Kapoor von der Microsoft Corporation.

Das Paper "Learning Visuomotor Policies for Aerial Navigation Using Cross-Modal Representations" wurde auf der Internationalen Konferenz über intelligente Roboter und Systeme (IROS) 2020 angenommen. Es ist Open Source und für andere Forscher verfügbar.

Erfahren Sie hier mehr darüber, wie sich die Navigation und Ortung autonomer Fahrzeuge virtuell testen lässt.

Lesen Sie auch: "Augmented-Reality-Visualisierung: Roboterinstallationen am Smartphone"