Deep Learning: Roboter schauen in die Zukunft

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Deep Learning: Roboter schauen in die Zukunft

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Forscher der University of California, Berkeley, haben ein Verfahren entwickelt, mit dem sich Roboter in zukünftige Tätigkeiten besser hineinversetzen können. Roboter können damit Handlungen mit Objekten präfigurieren, die sie noch nie zuvor gesehen haben, allein aufbauend auf zuvor wahrgenommenen Interaktionsmustern.

berkeley

Forscher der University of California, Berkeley, haben ein Verfahren entwickelt, mit dem sich Roboter in zukünftige Tätigkeiten besser hineinversetzen können. Roboter können damit Handlungen mit Objekten präfigurieren, die sie noch nie zuvor gesehen haben, allein aufbauend auf zuvor wahrgenommenen Interaktionsmustern.

Zukünftig soll das neue Verfahren auch selbstfahrenden Autos dazu verhelfen, das Geschehen auf der Straße zu antizipieren, und dazu beitragen, intelligentere robotische Assistenten für den Haushalt zu entwickeln. Der Prototyp zielt aber erst einmal darauf, einfache händische Fähigkeiten gänzlich aus selbständigem Spiel heraus zu lernen.

Mit der Technologie namens Visual Foresight können Roboter vorhersagen, was ihre Kameras sehen werden, wenn sie eine bestimmte Abfolge von Bewegungen ausführen. Diese robotische Vorstellungsgabe ist derzeit noch recht einfach ausgeprägt, und die Vorhersagen reichen nur wenige Sekunden in die Zukunft. Doch sie genügt dem Roboter, um herauszubekommen, wie er Gegenstände auf einem Tisch ohne störende Hindernisse bewegt. Entscheidend ist, dass der Roboter diese Aufgaben ohne jede menschliche Hilfe erlernt, und ohne vorheriges Wissen über Physik, die Umgebung oder die Art der Objekte. Die visuelle Vorstellungskraft entsteht von Grund auf durch unbeaufsichtigtes und unbeobachtetes Erkunden, indem der Roboter mit den Objekten auf dem Tisch spielt. Nach dieser Spielphase generiert er ein prädiktives Modell der Welt, und kann dieses Modell verwenden, um neue, ihm unbekannte Objekte zu manipulieren.

Wir können uns vorstellen, wie unsere Aktionen Gegenstände in unserer Umgebung bewegen, sagt Sergey Levine, Assistant Professor in Berkeley’s Department of Electrical Engineeing and Computer Sciences, dessen Forschungslabor die Technologie entwickelt hat. Und genauso könne auch ein Roboter präfigurieren, wie sich unterschiedliches Verhalten auf die Umwelt auswirke. Das könne intelligentes Planen hochgradig flexibler Fähigkeiten in lebensechten Situationen ermöglichen.

Das Entwicklerteam demonstriert die Visual-Foresight-Technologie an der Neural Information Processing Systems-Konferenz in Long Beach am 5. Dezember. Den Kern des Systems bildet ein Deep-Learning-Verfahren basierend auf einem rekurrenten neuronalen Netz für Video-Vorhersage oder Dynamic Neural Advection (DNA). DNA-basierte Modelle können aufgrund der Aktionen des Roboters voraussagen, wie sich Pixel in einem Bild von einem Frame zum nächsten bewegen. Die neuesten Verbesserungen für die Art von Modellen und verbesserte Planungskenntnisse haben der Robotersteuerung auf der Grundlage der Videovorhersage dazu verholfen, zunehmend komplexer Aufgaben auszuführen, etwa Spielzeug um Hindernisse herum zu schieben oder mehrere Gegenstände umzustellen.

Chelsea Finn, Doktorandin und Erfinderin des ursprünglichen DNA-Modells erklärt, dass Roboter ihre Fähigkeiten mit einer Aufsichtsperson erlernt haben, die ihnen Hilfestellung und Feedback biete. Nun aber gewinnen Roboter die Fähigkeit, Objekte zu manipulieren, von selbst. Mit dem Verfahren verschiebt ein Roboter Objekte auf einem Tisch und nutzt dann das eingelernte Vorhersagemodell für die Wahl von Bewegungen, die ein Objekt an den gewünschten Ort verfrachten. Der Roboter nutzt die Bilddaten der Kamera, um Hindernisse zu umgehen und Objekte um diese herum zu führen.

Weil sich die Steuerung mithilfe der Video-Vorhersage nur auf automatisch vom Roboter erfasste Beobachtungen verlässt, etwa über Kamerabilder, erweist sich die Methode als allgemein und vielseitig anwendbar. Im Gegensatz zu herkömmlichen Verfahren, für die es oft eine manuelle Kennzeichnung von tausenden Bildern braucht, lassen sich Video-Vorhersagemodelle nur mit unkommentierten Videomaterial aufbauen, das der Roboter weitgehend selbständig einsammelt.

Levine fasst zusammen: „Kinder können ihre Welt durch den Umgang mit Spielzeug erkunden, indem sie es umherbewegen, danach greifen usw. Mit unserer Arbeit wollen wir einen Roboter in die Lage versetzen, dasselbe zu tun: durch selbständiges Handeln erfahren, wie die Welt funktioniert. Die Fähigkeiten dieses Roboters halten sich noch in Grenzen, aber sie wurden gänzlich automatisch erworben. Sie erlauben es ihm, Handlungen mit Objekten zu präfigurieren, die er noch nie zuvor gesehen hat, allein aufbauend auf vorher wahrgenommenen Interaktionsmustern.“

Bild: Still aus dem Video.

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments

Andere Leser haben sich auch für die folgenden Artikel interessiert

Studenten in der Mikrobiologie können Bakterien in der Petrischale heranzüchten, um ihren Forschungsgegenstand besser zu verstehen, angehende Paläontologen haben Fossilien. Aber wer die Atmosphäre studiert, muss sich mit weniger Greifbarem begnügen: Daten, und davon viel. Nun hilft das National Center for Atmospheric Research (NCAR) dabei, diese Daten weniger abstrakt erscheinen zu lassen

Tragen Sie sich jetzt kostenlos und unverbindlich ein, um keinen Artikel mehr zu verpassen!

    * Jederzeit kündbar

    Entdecken Sie weitere Magazine

    Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

    Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.