24.05.2019 – Kategorie: IT, Technik

Menschliches Schlussfolgern in autonomen Systemen

mit-confident-navigation_0

Mit dem Ziel, menschliches Schlussfolgern in autonomen Fahrzeugen zu verankern, haben Wissenschaftler vom MIT eine Lösung entwickelt, die lediglich einfache Karten und visuelle Daten verwendet, um den Autos das Navigieren auch in unbekanntem Terrain zu ermöglichen.

Mit dem Ziel, menschliches Schlussfolgern in autonomen Fahrzeugen zu verankern, haben Wissenschaftler vom MIT eine Lösung entwickelt, die lediglich einfache Karten und visuelle Daten verwendet, um den Autos das Navigieren auch in unbekanntem Terrain zu ermöglichen.

Menschliche Fahrer finden sich durch Beobachten und einfache Mittel in ihnen unbekannten Straßennetzen oft gut zurecht. Sie gleichen zum Beispiel die wahrgenommene Umgebung mit den Informationen des Navigationssystems ab, um festzustellen, wo sie sind und wo sie hinfahren müssen. Selbstfahrende Autos jedoch haben mit diesen grundsätzlichen Überlegungen zu kämpfen. In jeder neuen Umgebung müssen sie erst einmal alle neue Straßen kartieren und analysieren, was viel Zeit kostet. Die Systeme sind zudem auf komplexe, typischerweise durch 3D-Scans gewonnene Karten angewiesen, deren Darstellung und Verarbeitung on the fly eine enorme Rechenleistung einfordert.

In einem Paper, das an der International Conference on Robotics and Automation präsentiert wurde, beschreiben Wissenschaftler vom MIT nun eine neuartige Steuerung für autonome Fahrzeuge. Sie orientiert sich an den Lenkmustern menschlicher Fahrer, wenn diese auf den Straßen unterwegs sind. Dabei kommen lediglich die Daten von Videokameras und eine einfache GPS-artige Karte zum Einsatz. Anschließend kann das so geschulte System ein autonomes Fahrzeug entlang einer geplanten Strecke in einem ihm gänzlich unbekannten Gelände steuern, indem es den menschlichen Fahrer imitiert.

Wie ein Mensch bemerkt das System auch Unstimmigkeiten zwischen seiner Karte und den Straßenverhältnissen. Das hilft dem System, zu erkennen, wenn seine Position, Sensoren oder das Mapping nicht korrekt arbeiten, um den Fahrweg des Autos zu korrigieren.

Um die Lösung am Anfang zu trainieren, steuerte ein menschlicher Bediener einen fahrerlosen Toyota Prius. Mit mehreren Kameras und einem GPS-Navigationssystem ausgerüstet, sammelte das Auto Daten von Vorortstraßen mit den unterschiedlichen Straßenstrukturen und Hindernissen. Autonom betrieben führte das System das Auto erfolgreich entlang einer vorgeplanten Strecke in einem anderen, bewaldeten Gebiet, einem Testgelände für autonome Fahrzeuge. Hauptautor Alexander Amini erklärt: „Mit unserem System muss man nicht auf jeder Straße vorher trainieren. Man kann eine neue Karte für das Auto herunterladen, damit es sich auf Wegen zurechtfindet, die es nie zuvor gesehen hat.“

Das Ziel sei eine autonome Navigation, die für das Fahren in neuen Umgebungen geeignet sei, so Co-Autorin Daniela Rus, Leiterin des Computer Science and Artificial Intelligence Laboratory (CSAIL). “Wenn wir zum Beispiel ein autonomes Fahrzeug in einem städtischen Umfeld wie den Straßen von Cambridge trainieren, sollte das System auch in abgelegenen Gebieten problemlos fahren können, selbst wenn es diese noch nie gesehen hat.“

Neben Rus und Amini haben sich auch Guy Rosman, Wissenschaftler am Toyota Research Institute, and Sertac Karaman, Associate Professor of Aeronautics and Astronautics am MIT, an dieser Studie mitgearbeitet.

Video: Variational End-to-End-Navigation and Localization. Quelle: MIT

Punkt-zu-Punkt-Navigation

Herkömmliche Navigationssystem verarbeiten Sensordaten über zahlreiche Module, etwa für Aufgaben wie Lokalisierung, Mapping, Objekterkennung, Bewegungsplanung und Lenkverhalten. Die Forscher um Rus befassen sich seit einigen Jahren mit End-to-End-Navigationssystemen, die Sensordaten direkt in Steuerungsbefehle umsetzen, ohne dass es dafür spezialisierter Module bedürfte.

Doch bislang waren diese Modelle strikt darauf ausgerichtet, ohne tatsächliches Endziel der Straße sicher zu folgen. In dem neuen Paper beschreiben die Entwickler die Erweiterung des End-to-End-Systems, das nun in einer unbekannten Umgebung seinen Bestimmungsort erreichen kann. Dafür trainierten sie das System darin, eine komplette Wahrscheinlichkeitsverteilung über alle möglichen Lenkbefehle an jedem gegebenen Zeitpunkt während der Fahrt vorherzusagen. Die Lösung nutzt ein Modell des maschinellen Lernens, ein konvolutionelles neuronales Netz (CNN), das normalerweise in der Bilderkennung eingesetzt wird.

Während des Trainings beobachtet das System und lernt von einem menschlichen Fahrer. Das CNN korreliert die Lenkradumdrehungen mit den via Kameras und eingebetteten Karten empfangenen Kurvenradien der Straße. Schließlich lernt es den wahrscheinlichsten Lenkbefehl für unterschiedliche Fahrsituationen wie gerade Strecken, Kreuzungen, Abzweige und Kreisverkehre.

Rus erklärt: „Zunächst gibt es an einer T-Kreuzung viele unterschiedliche Richtungen, in die sich das Auto bewegen könnte. Das Modell beginnt damit, all diese Richtungen zu bedenken, aber mit mehr und mehr Daten menschlichen Verhaltens sieht es, dass Menschen nach rechts oder links abbiegen, und niemals geradeaus. Geradeaus fällt flach als mögliche Richtung, und das Modell lernt, dass es an T-Kreuzungen nur nach rechts oder links fahren kann.“

Was sagt die Karte?

In den Tests haben die Entwickler das System mit einer Karte ausgestattet und eine zufällig ausgewählte Route vorgegeben. Während der Fahrt extrahiert die Lösung visuelle Merkmale aus den Kameradaten, um die Straßenstrukturen vorhersagen. Sie interpretiert beispielsweise ein Stopschild oder eine Abbiegerspur als Zeichen einer bevorstehenden Kreuzung. Zu jedem Zeitpunkt nutzt sie die vorhergesagte Wahrscheinlichkeitsverteilung von Lenkbefehlen, um den für die Route wahrscheinlich am besten geeigneten Befehl auszuwählen.

Entscheidend sei, dass das System Karten verwende, die sich einfach speichern und verarbeiten lassen, so die Forscher. Autonome Systeme nutzen typischerweise LiDAR—Scans für komplexe Karten, die beispielsweise allein für die Stadt San Francisco ein Datenvolumen von 4 Terabyte in Anspruch nehmen. Für jedes neue Ziel muss das Auto neue Karten erzeugen, was einen enormen Rechenaufwand impliziert. Das neue System setzt jedoch auf Karten, welche die Welt mit nur 40 GByte Daten erfassen.

Während der autonomen Fahrt gleicht die Lösung kontinuierlich seine visuellen Daten mit den Kartendaten ab und registriert die Abweichungen. So kann das autonome Fahrzeug besser feststellen, wo es sich auf der Straße befindet. Es ist zudem gewährleistet, dass das Auto auf der sicheren Seite bleibt, wenn der Input widersprüchlich ist. Wenn also ein Auto eine gerade Straße ohne Kurven entlangfährt, und das GPS signalisiert eine Rechtskehre, dann weiß es, dass es anhalten muss oder einfach geradeaus weiterfahren.

In der realen Welt können Sensoren versagen, so Amini. „Wir wollen dafür sorgen, dass das System gegen verschiedene Fehlfunktionen gewappnet ist, indem wir eine Lösung entwickeln, die unklaren Input akzeptiert und sich dabei korrekt auf der Straße einordnet und orientiert.“

Literatur: “Variational End-to-End Navigation and Localization”

http://arxiv.org/pdf/1811.10119.pdf


Teilen Sie die Meldung „Menschliches Schlussfolgern in autonomen Systemen“ mit Ihren Kontakten:


Scroll to Top