Gedankengesteuerten Robotern einen Schritt näher
Tetraplegikerinnen sind Gefangene ihres eigenen Körpers, unfähig zu sprechen oder die kleinste Bewegung auszuführen. Die Forschung arbeitet seit Jahren an der Entwicklung von Systemen, die diesen Patientinnen und Patienten helfen können, einige Aufgaben selbständig auszuführen: «Menschen mit einer Rückenmarksverletzung haben oft dauerhafte neurologische Ausfälle und schwere motorische Behinderungen, die sie daran hindern, selbst einfachste Aufgaben wie das Greifen eines Gegenstandes auszuführen», sagt Prof. Aude Billard, Leiterin des EPFL-Labors für Lernalgorithmen und Systeme. «Die Unterstützung durch Roboter könnte diesen Menschen helfen, einen Teil ihrer verlorenen Geschicklichkeit zurückzugewinnen, da der Roboter an ihrer Stelle Aufgaben ausführen kann.»
Prof. Billard führte eine Studie mit Prof. José del R. Millán durch, der damals Leiter des Labors für Gehirn-Maschine-Schnittstellen der EPFL war, inzwischen aber an die Universität von Texas gewechselt ist. Die beiden Forschungsgruppen haben ein Computerprogramm entwickelt, das einen Roboter mit Hilfe von elektrischen Signalen aus dem Gehirn einer Patientin steuern kann. Es ist keine Sprachsteuerung oder Berührungsfunktion erforderlich; die Patienten können den Roboter einfach mit ihren Gedanken bewegen. Die Studie wurde in Communications Biology, einer frei zugänglichen Zeitschrift von Nature Portfolio, veröffentlicht.
Hindernissen aus dem Weg gehen
Bei der Entwicklung ihres Systems gingen die Forschenden von einem Roboterarm aus, der vor einigen Jahren entwickelt worden war. «In unserer Studie haben wir einen Roboter so programmiert, dass er Hindernissen ausweicht, aber wir hätten auch jede andere Aufgabe wählen können, z. B. ein Glas Wasser füllen oder einen Gegenstand schieben oder ziehen», sagt Prof. Billard.
Die Ingenieurinnen und Ingenieure begannen damit, den Mechanismus des Roboters zum Ausweichen vor Hindernissen zu verbessern, um ihn präziser zu machen: «Zunächst wählte der Roboter einen Weg, der für einige Hindernisse zu breit war und ihn zu weit weg führte, für andere aber nicht breit genug, so dass er zu nah dran blieb», sagt Carolina Gaspar Pinto Ramos Correia, Doktorandin in Prof. Billards Labor. «Da das Ziel unseres Roboters darin bestand, gelähmten Patientinnen zu helfen, mussten wir einen Weg finden, wie die Benutzer mit ihm kommunizieren konnten, ohne sprechen oder sich bewegen zu müssen.»
Ein Algorithmus, der aus Gedanken lernen kann
Dazu musste ein Algorithmus entwickelt werden, der die Bewegungen des Roboters allein auf der Grundlage der Gedanken der Patientin anpassen konnte. Der Algorithmus wurde mit einer Kopfhaube verbunden, die mit Elektroden ausgestattet war, um EEG-Scans (Elektroenzephalogramm) der Gehirnaktivität des Patienten durchzuführen. Um das System zu nutzen, muss die Person nur den Roboter ansehen. Wenn der Roboter eine falsche Bewegung macht, sendet das Gehirn der Patientin eine «Fehlermeldung» in Form eines klar erkennbaren Signals aus, so als ob sie sagen würde: «Nein, so nicht.» Der Roboter versteht dann, dass das, was er tut, falsch ist – aber er weiss zunächst nicht genau, warum. Ist er zum Beispiel zu nahe an das Objekt herangekommen oder zu weit davon entfernt? Um dem Roboter zu helfen, die richtige Antwort zu finden, wird die Fehlermeldung in den Algorithmus eingespeist, der einen Ansatz des inversen Verstärkungslernens verwendet, um herauszufinden, was die Person will und welche Massnahmen der Roboter ergreifen muss. Dies geschieht durch einen Versuch-und-Irrtum-Prozess, bei dem der Roboter verschiedene Bewegungen ausprobiert, um zu sehen, welche die richtige ist. Der Prozess geht recht schnell – in der Regel sind nur drei bis fünf Versuche nötig, bis der Roboter die richtige Reaktion herausgefunden und die Wünsche der Person ausgeführt hat. «Das KI-Programm des Roboters kann schnell lernen, aber man muss ihm sagen, wenn er einen Fehler macht, damit er sein Verhalten korrigieren kann», sagt Prof. Millán, «die Entwicklung der Technologie zur Erkennung von Fehlersignalen war eine der grössten technischen Herausforderungen, die wir zu bewältigen hatten.» Iason Batzianoulis, Hauptautor der Studie, fügt hinzu: «Besonders schwierig war in unserer Studie die Verknüpfung der Gehirnaktivität des Patienten mit dem Steuerungssystem des Roboters – oder anders gesagt, die ‹Übersetzung›󠅒 der Gehirnsignale des Patienten in Aktionen, die vom Roboter ausgeführt werden. Dazu haben wir maschinelles Lernen eingesetzt, um ein bestimmtes Gehirnsignal mit einer bestimmten Aufgabe zu verknüpfen. Dann haben wir die Aufgaben mit individuellen Robotersteuerungen verknüpft, so dass der Roboter das tut, was die Person im Sinn hat.»
Nächster Schritt: ein gedankengesteuerter Rollstuhl
Die Forschenden hoffen, ihren Algorithmus später auch für die Steuerung von Rollstühlen einsetzen zu können: «Im Moment sind noch viele technische Hürden zu überwinden», so Prof. Billard, «und Rollstühle stellen eine ganz neue Herausforderung dar, da sowohl die Patientin oder der Patient als auch der Roboter in Bewegung sind.» Das Team plant ausserdem, seinen Algorithmus mit einem Roboter zu verwenden, der mehrere verschiedene Arten von Signalen lesen und die vom Gehirn empfangenen Daten mit denen der visuellen Motorik koordinieren kann.