Mit der Kraft der Gedanken – Neue Qualität der Mensch-Roboter-Interaktion dank embedded Brain Reading

Wie lassen sich unsere Gedanken für die Interaktion mit Robotern nutzen? Mit dieser Frage beschäftigen sich Wissenschaftlerinnen und Wissenschaftler des Robotics Innovation Center am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und der Arbeitsgruppe Robotik der Universität Bremen. Gemeinsam entwickeln sie Schlüsseltechnologien, die echtzeitfähiges und adaptives embedded Brain Reading ermöglichen. Dadurch sind Roboter auf Basis der Gehirnaktivitäten des Menschen nicht nur intuitiv und effektiv steuerbar. Die Systeme können zugleich menschliche Gedanken interpretieren und daraus lernen. Ihre wegweisenden Arbeiten, die u.a. in der Rehabilitationsrobotik zum Einsatz kommen, veröffentlichten die Forscherinnen und Forscher u.a. in den international renommierten Fachjournalen Frontiers in Neuroscience, Scientific Reports - Nature und Sensors.




Roboter lassen sich mithilfe menschlicher Gehirnaktivität über sogenannte Brain-Computer-Interfaces (BCIs) steuern. Dabei kommt Elektroenzephalografie (EEG) zum Einsatz, bei der am Kopf angelegte Elektroden Potentialänderungen im Gehirn messen. Im Gegensatz zu klassischen BCIs geht der von den Wissenschaftlerinnen und Wissenschaftlern entwickelte ganzheitliche Ansatz „embedded Brain Reading“ (eBR) noch einen Schritt weiter: Gehirnaktivität kann nicht nur gemessen, sondern auch interpretiert werden. Auf diese Weise lassen sich Handlungsabsichten und die kognitive Auslastung von Personen erkennen. Dabei setzt eBR ausschließlich auf die passive Beobachtung natürlich auftretender Gehirnaktivität und vermeidet so eine Mehrbelastung des Menschen durch die Nutzung eines BCIs. Zudem ermöglicht der innovative Ansatz, der zusätzlich zum EEG auch auf Elektromyografie zur Messung der Muskelaktivität, Eye-Tracking und Bewegungsanalyse setzt, die vollständige und fehlertolerante Integration der Gehirnaktivität in die Steuerung technischer Systeme. Dies machen sich die Forscher z.B. bei der Teleoperation von Weltraumrobotern, aber auch bei der EEG-basierten Steuerung robotischer Exoskelette zunutze.

Pressemitteilung_eBR_1
Mithilfe des am DFKI entwickelten Brain-Reading-Systems lassen sich Roboter auf Basis der Gehirnaktivitäten intuitiv und effektiv steuern. (Foto: DFKI GmbH)

Ereigniskorrelierte Potentiale geben Aufschluss über die Informationsverarbeitung beim Menschen

Beim embedded Brain Reading dienen ereigniskorrelierte Potentiale (engl.: event related potentials, ERPs) im EEG als Input-Quellen, die als Reaktion auf eine interne Zustandsänderung oder einen externen Reiz entstehen. Am DFKI werden diese Potentiale genutzt, um die Interaktion zwischen Mensch und Roboter zu verbessern. In ihrem Aufsatz „Multi-tasking and Choice of Training Data Influencing Parietal ERP Expression and Single-trial Detection – Relevance for Neuroscience and Clinical Applications“, der am 27. März 2018 in dem Fachjournal Frontiers in Neuroscience erschien, untersuchen die Wissenschaftlerinnen Dr. Elsa Andrea Kirchner und Dr. Su Kyoung Kim, wie sich ERPs durch single-trial Detektion im EEG erkennen lassen und welchen Einfluss unterschiedliche Trainingsmodalitäten haben. Es zeigte sich, dass sich ERPs durch single-trial Erkennung auch unter „dual-task“-Bedingungen erfolgreich detektieren lassen, also wenn der Mensch nicht nur einer sondern mehreren Aktivitäten nachgeht. Dabei ist die Detektionsleistung umso höher, je seltener und bedeutender ein bei der Aufgabe hervorgerufener Reiz ist. Die single-trial ERP-Erkennung eignet sich insbesondere für die Online-EEG-Analyse in Echtzeit, etwa zur Steuerung eines Exoskeletts. Im Rahmen der rehabilitativen Therapie kann die ERP-Erkennung nicht nur Hinweise zu geplanten Bewegungen, sondern z.B. auch über den Aufmerksamkeitszustand eines Patienten geben.

Roboter lernen dank menschlichem Negativ-Feedback aus eigenem Fehlverhalten

Zu den ereigniskorrelierten Potenzialen gehört das sogenannte fehlerkorrelierte Potential (engl.: error-related potential). Wie sich dieses für die Mensch-Roboter-Interaktion gewinnbringend einsetzten lässt, ist Gegenstand des am 14. Dezember 2017 in dem Fachjournal Scientific Reports - Nature erschienenen Papers „Intrinsic interactive reinforcement learning – Using error-related potentials for real world human-robot interaction“. Darin beschreiben die Wissenschaftlerinnen und Wissenschaftler des Robotics Innovation Center und der Universität Bremen Dr. Su Kyoung Kim, Dr. Elsa Andrea Kirchner, Arne Stefes und Prof. Dr. Dr. h.c. Frank Kirchner ein am DFKI entwickeltes Verfahren des Maschinellen Lernens, bei dem ein Roboter aus dem eigenen Fehlverhalten in der gestengesteuerten Interaktion mit dem Menschen lernen kann. Der Roboter ist dabei in der Lage, gleichzeitig zu lernen, die Gesten des Menschen zu unterscheiden und den von ihm ausführbaren Aktionen zuzuordnen. Ob diese Zuordnung richtig oder falsch war, erfährt er anhand der EEG-Messung beim Menschen, durch die er im Falle einer fehlerhaften Aktion ein negatives Feedback, das fehlerkorrelierte Potential, erhält. Dies entlastet den Menschen in der Interaktion, da er die Rückmeldung nicht bewusst an den Roboter geben muss, sondern diese dank eBR bereits auf der unterbewussten Ebene bei ihm abgegriffen wird. Die Bremer Forscher konnten das auf intrinsisches Feedback beruhende Verfahren erstmals in der Interaktion mit einem echten Robotersystem anwenden, und zeigen, dass es zu einer Verbesserung der Interaktion zwischen Mensch und Roboter führt. Bei der Rehabilitation mit Exoskeletten ließe sich das Error-Potential z.B. nutzen, um Erkenntnisse über die Akzeptanz durch den Nutzer zu gewinnen.

Pressemitteilung_eBR_2
In der gestengesteuerten Interaktion kann der Roboter anhand eines Negativ-Feedbacks im EEG des Menschen aus dem eigenen Fehlverhalten lernen. (DFKI GmbH)

FPGAs ermöglichen die mobile Verarbeitung physiologischer Daten in Echtzeit

Die Verwendung physiologischer Daten zur Verbesserung der Funktionalität und Benutzerfreundlichkeit in technischen Rehabilitationssystemen ist jedoch an die Möglichkeit ihrer Verarbeitung gebunden. Diese muss in Echtzeit erfolgen, um eine möglichst natürliche Unterstützung der Bewegungen zu realisieren. Zudem braucht es mobile und miniaturisierte Verarbeitungssysteme, die in die Rehabilitationseinrichtung eingebettet werden können. In dem Paper „A Hybrid FPGA-Based System for EEG- and EMG-Based Online Movement Prediction“, das am 3. Juli 2017 in dem Fachjournal Sensors publiziert wurde, stellen Wissenschaftlerinnen und Wissenschaftler des DFKI und der Universität Bremen – Dr. Hendrik Wöhrle, Marc Tabie, Dr. Su Kyoung Kim, Prof. Dr. Dr. h.c. Frank Kirchner und Dr. Elsa Andrea Kirchner – ein kompaktes Brain-Reading-System zur Echtzeit-Bewegungsvorhersage vor. Dabei setzen sie auf sogenannte Field Programmable Gate Arrays (FPGAs), wiederprogrammierbare Schaltkreise, die parallele Verarbeitungsoperationen ermöglichen und daher große Datenmengen in kürzester Zeit verarbeiten können. Um diese für die Robotik nutzbar zu machen, entwickelten die Forscher zudem das Software-Framework reSPACE. Dieses definiert die verschiedenen anwendungsspezifischen Rechenoperationen, die nach dem Baukastenprinzip zu einem Datenflussbeschleuniger kombiniert und auf dem FPGA zur Verfügung gestellt werden. Durch die Echtzeit-Auswertung von EEG-Daten kann das entwickelte System z.B. die Regelung eines Exoskeletts unterstützen. Die FPGAs bewältigen die dabei anfallende riesige Datenmenge innerhalb weniger Nanosekunden – nur so kann das Exoskelett genau im richtigen Moment die Armbewegung unterstützen.

  • Link zum Paper „Multi-tasking and Choice of Training Data Influencing Parietal ERP Expression and Single-trial Detection – Relevance for Neuroscience and Clinical Applications“, erschienen am 27. März 2018 in Frontiers in Neuroscience: www.frontiersin.org/articles/10.3389/fnins.2018.00188/full
  • Link zum Paper „Intrinsic interactive reinforcement learning – Using error-related potentials for real world human-robot interaction“, erschienen am 14. Dezember 2017 in Scientific Reports - Nature: www.nature.com/articles/s41598-017-17682-7 
  • Link zum Paper „A Hybrid FPGA-Based System for EEG- and EMG-Based Online Movement Prediction“, erschienen am 3. Juli 2017 in Sensors: www.mdpi.com/1424-8220/17/7/1552/htm


Auf der CEBIT-Expo vom 12. bis 15. Juni 2018 in Hannover‎ stellt das DFKI in Halle 27, Stand F62, das Projekt Recupera REHA vor. Darin gelang dem Robotics Innovation Center ein Durchbruch auf dem Gebiet der Rehabilitationsrobotik: Gemeinsam mit der rehaworks GmbH entwickelte es ein mobiles Exoskelett für die Oberkörperassistenz speziell zur robotergestützten Therapie nach einem Schlaganfall, dass sich u.a. auf Basis von EEG-Daten steuern lässt. Im Projekt fanden die Erkenntnisse und Technologien zum embedded Brain Reading Anwendung.

Pressemitteilung_eBR
Großes Potential für die Rehabilitationsrobotik: Das im Projekt Recupera REHA entwickelte Oberkörper-Exoskelett ist dank embedded Brain Reading auch durch die Online-Auswertung von EEG-Signalen steuerbar.

Weitere Informationen:
Projekt Recupera REHA  www.dfki.de/robotik/de/forschung/projekte/recupera-reha.html
Software-Framework reSPACE www.dfki.de/robotik/de/forschung/softwaretools/respace.html
DFKI auf der CEBIT www.dfki.de/web/aktuelles/dfki-cebit-2018/index_html

Ansprechpartner:
Dr. Elsa Andrea Kirchner
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH
Robotics Innovation Center
E-Mail: elsa.kirchner@dfki.de
Tel.: +49 421 17845 4113

Pressekontakt:
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH
Unternehmenskommunikation Bremen
E-Mail: uk-hb@dfki.de
Tel.: +49 421 17845 4180