Roboter mit Gehirnströmen und Gesten steuern
Es ist nicht leicht, Roboter anzuleiten: Typischerweise müssen Entwickler deren Aufgaben explizit programmieren oder dem Roboter die menschliche Kommunikation via Sprache beibringen. Aber es gibt einen intuitiveren Weg.
Es ist nicht leicht, Roboter anzuleiten: Typischerweise müssen Entwickler deren Aufgaben explizit programmieren oder dem Roboter die menschliche Kommunikation via Sprache beibringen. Aber es gibt einen intuitiveren Weg.
Eine neue Lösung, entwickelt unter der Ägide von Wissenschaftlern des Computer Science and Artificial Intelligence Laboratory (CSAIL) am MIT, soll genau diesen Weg eröffnen, indem sie den Anwendern ermöglicht, Fehler von Robotern instantan mit nichts anderem als Gehirnströmen oder einen Fingerzeig zu korrigieren.
Aufbauend auf früheren Arbeiten, die sich auf simple Tätigkeiten basierend auf einer binäre Auswahl konzentrierten, haben die neuen Studien den Blickwinkel hin zu Multiple-Choice-Aufgaben erweitet und damit neue Möglichkeiten dafür eröffnet, wie Menschen Gruppen von Robotern steuern können.
Durch das Messen der Gehirnaktivität kann das System in Echtzeit erkennen, ob eine Person in der Arbeit eines Roboters einen Fehler bemerkt. Über Sensoren für die Muskelaktivität kann die Person mit Handgesten scrollen und die korrekte Option für den Roboter auswählen.
Natürliche Interaktion
Die Forscher demonstrierten die Lösung anhand einer Aufgabe, bei der der Roboter einen Bohrkopf an drei mögliche Ziele an die Attrappe eines Flugzeugrumpfs bewegen musste. Es zeigte sich, dass das System auch mit Menschen funktioniert, die es nie zuvor gesehen hat. Das heißt, es lässt sich in realen Umgebungen einsetzen, ohne es erst auf seine Anwender trainieren zu müssen.
„Die Forschungsarbeit kombiniert die Signale aus dem EEG und dem EMG und ermöglicht eine natürliche Interaktion zwischen Mensch und Maschine für eine breitere Spanne von Anwendungen als es nur mit dem EEG früher möglich war“, sagt Daniela Rus, CSAIL Director. „Durch das Muskel-Feedback können wir Gesten verwenden, um den Roboter räumlich zu steuern, und zwar spezifischer und nuancierter.“
PhD-Kandidat Joseph DelPreto ist der Hauptautor des Papers zum Projekt, mit Daniela Rus, Andres F. Salazar-Gomez, Stephanie Gil, Ramin M. Hasani, und Frank H. Guenther von der Boston University. Die Arbeit wird a der Konferenz „Robotics: Science and Systems (RSS)“ in Pittsburgh in der kommenden Woche präsentiert.
Intuitiv zusammenarbeiten
In den meisten jüngeren Bemühungen ähnlicher Art konnten die Systeme im Allgemeinen nur Hirnströme erkennen, wenn die Personen es darauf anlegten, in einer sehr spezifischen, willkürlichen Weise zu denken und wenn das System darin geschult war, die entsprechenden Signale zu entschlüsseln. So könnte beispielsweise der Werker auf verschiedene Leuchtanzeigen geblickt haben müssen, die während des Trainings mit unterschiedlichen Aufgaben für den Roboter korrespondierten. Wenig überraschend lassen sich derartige Konzepte für die Anwender schwerlich handhaben, besonders wenn diese konstruieren oder navigieren und sich damit ohnehin schon enorm konzentrieren müssen.
Die Gruppe um Rus macht sich Gehirnsignale zu nutze, die als fehlerkorrelierte Potentiale bezeichnet werden (error-related potentials, ErrPs). Sie erscheinen immer dann, wenn Menschen Fehler bemerken. Im Falle eines ErrP stoppt das System, so dass der Anwender korrigierend eingreifen kann, andernfalls läuft es weiter. Daher sei es nicht erforderlich, den Anwender ein zielgerichtetes Denken zu vermitteln, so DelPreto. Die Maschine passe sich dem Anwender an und nicht umgekehrt.
Im Projekt kam Baxter zum Einsatz, der humanoide Roboter von Rethink Robotics. Unter menschlicher Aufsicht konnte der Roboter seine Zielgenauigkeit von 70 Prozent auf mehr als 97 Prozent steigern. Die Gehirnströme wurden mittels Elektroenzephalographie gemessen (EEG), die Muskelaktivität mit Elektromyographie (EMG) über Elektroden am Kopf und am Unterarm. Beide Messverfahren haben spezifische Schwächen: EEG-Signal lassen sich nicht immer verlässlich erkennen, während sich EMG-Signale manchmal nur schwer Bewegungen zuordnen lassen, die komplexer als reine Richtungsbewegungen sind. Das Zusammenspiel beider Methoden jedoch führt zu robusteren Interpretationen und ermöglicht neuen Anwendern, das System ohne Training zu nutzen.
Man könne nun die natürliche Gestik zusammen mit dem spontanen Bemerken eines Fehlers begreifen. Das helfe, mit einem Roboter eher so zu kommunizieren, wie man es mit einer anderen Person tun würde, sagt DelPreto. Die Wissenschaftler können sich die Lösung zukünftig im Einsatz für ältere Menschen, Werktätige mit Sprachfehlern oder eingeschränkter Mobilität vorstellen.
Wir wollen davon wegkommen, dass sich die Menschen den Grenzen der Maschinen unterwerfen müssten, sagt Rus. Konzepte wie das vorgestellte zeigen, dass es möglich sei, robotische Systeme zu entwickeln, die eine natürlichere und intuitivere Erweiterung des Menschen darstellen.
Das Projekt wurde in Teilen von Boeing unterstützt.
Bild: Durch das Aufzeichnen der Gehirnströme kann das System in Echtzeit feststellen, ob die Person einen Fehler in der Arbeit eines Roboters bemerkt. Credit: MIT CSAIL
Teilen Sie die Meldung „Roboter mit Gehirnströmen und Gesten steuern“ mit Ihren Kontakten:
Zugehörige Themen:
Automation, Digitaler Zwilling, Fertigung, Forschung & Technik, Produktion & Prozesse, Robotik | Assistenzrobotik, Sensorik