Ziemlich gelenkiger Roboter
iCub lernt vom Menschen und aus Fehlern
22.12.2014
Er hat Kulleraugen und sieht aus wie eine lebensgroße Kinderpuppe aus Metall. iCub gehört zur neuesten Generation humanoider Roboter in Europa. Das Forscherteam um Informatikprofessor Jan Peters soll ihn das Laufen und Bewegen lehren. Peters erläutert, wie es gelingen könnte.
TU Darmstadt: Herr Professor Peters, was unterscheidet iCub von anderen Robotern?
Jan Peters: Wir haben beim iCub 53 Freiheitsgrade, das sind Gelenke, die wir ansteuern können. Das ist deutlich mehr als bei anderen Robotern, mit denen wir arbeiten. Es bedeutet eine unglaubliche Komplexität, denn wir haben damit 53 Dimensionen und entlang jeder einzelnen müssen wir dem Roboter Position und Geschwindigkeit vorgeben. Gleichzeitig beinhaltet diese Vielfältigkeit auch die Qual der Wahl: Welches Verhalten bringen wir iCub bei?
Sie programmieren den Roboter nicht nur, iCub soll auch selbstständig lernen?
Genau. Wir versuchen, spezielle Methoden zum maschinellen Lernen zu entwickeln, die es dem Roboter ermöglichen, vom Menschen zu lernen oder sich durch das Prinzip Trial-and-Error, das heißt Versuch oder Fehler, selbst zu verbessern. Damit ist unser Team und unser Darmstadt Lab weltweit einzigartig und führend.
Einer meiner früheren Erfolge war beispielsweise, dass wir einem einarmigen Roboter beigebracht haben, Tischtennis zu spielen. Wir haben ihn an die Hand genommen, ihm Vor- und Rückhand gezeigt und dann gegen eine Ballkanone trainieren lassen. Der Roboter hat es bis auf das Level eines Zwölfjährigen gebracht. Und dieser Roboter hatte nur sieben Freiheitsgrade, keine 53 wie beim iCub.
Was wollen Sie iCub beibringen?
Wir wollen ihn elementare Verhaltensarten lehren, die den ganzen Körpereinsatz und den physikalischen Kontakt mit der Umgebung erfordern. Wir wollen dem Roboter etwa beibringen, sich auf einen Stuhl zu setzen oder wieder aufzustehen. Das klingt einfach, ist aber sehr kompliziert und in der Robotik ein sehr wichtiges Problem.
Bei unserer Arbeit geht um die Zuordnung von Sensorsignalen zu Aktionen. iCub ist ausgerüstet mit einer Art Neoprenhaut, unter der tausende Sensoren liegen, die auf Druckkontakt und Berührung reagieren. Der Roboter soll lernen, zu laufen, sich auf einen Tisch abzustützen, die Balance zu halten und dabei die Signale der Hautsensoren zu nutzen, um so die Fähigkeit zu erlangen, auf seine Umwelt zu reagieren. Die meisten Roboter agieren heute ohne Signale von außen. iCub soll auch Bewegungen oder Verhaltensweisen gleichzeitig ausführen können, etwa laufen und Arme schwenken.
iCub kann die Augenbrauen heben, lächeln, mit den Augen klimpern. Wollen Sie ihn auch Gefühlsregungen lehren?
Ja, es soll in die Richtung Interaktion gehen. Das Zeigen oder Simulieren von Gemütsregung ist sehr wichtig für den Kontakt und die Interaktion mit Menschen. Allerdings muss man da auch vorsichtig sein und darf nicht zu weit gehen. Es ist angenehm, wenn Roboter immer menschenähnlicher werden, aber dann kann der Punkt kommen, wo das in Angst umschlägt und Menschen sich nicht mehr wohlfühlen. Ob wir Robotern Gefühle geben können? Ich glaube nicht in absehbarer Zeit.
Wo könnte iCub eingesetzt werden?
Ich könnte mir den Einsatz beispielsweise sehr gut für autistische Kinder vorstellen, die nehmen Roboter besser an als Pflegekräfte oder andere Helfer.
Die Fragen stellte Astrid Ludwig
Hintergrund: Können Roboter lernen wie Menschen?
Das menschliche Gehirn ist in der Lage, neue Aufgaben erstaunlich effektiv zu lernen. Wenn wir zum Beispiel zum ersten mal Tischtennis spielen, analysieren wir unter anderem das Verhalten unseres Mitspielers, ziehen logische Schlüsse aus Erfahrungen (z.B. aus ähnlichen Sportarten wie Tennis), schätzen Auswirkungen von möglichen Aktionen ab, erwägen die Kombination von bereits gelernten Bewegungsmustern und lernen durch Erfolge sowie durch Scheitern.
All diese und weitere Prozesse laufen oft parallel und in Bruchteilen einer Sekunde ab. Doch wie lassen sich diese komplexen Vorgänge beschreiben und auf Roboter übertragen? In der Arbeitsgruppe Intelligente Autonome Systeme glauben wir, eine Antwort auf diese Frage gefunden zu haben. Unsere Roboter sprechen eine Sprache – probabilistische Inferenz (engl. probabilistic inference).
Im Gegensatz zu binären (entweder/oder) Entscheidungen, die Computer treffen, können wir mit dieser Sprache unendlich viele Abstufungen als Wahrscheinlichkeiten formulieren. In unserem Tischtennis-Beispiel sind wir in der Lage, effektive Handlungen eines Mitspielers von weniger Erfolg versprechenden zu unterscheiden. Wir können die Ähnlichkeiten von gelernten Bewegungen berechnen, die Auswirkungen von verschiedenen Aktionen vergleichen und Kombinationen von Bewegungen anhand ihrer Relevanz durchführen.
Mit Industrieroboterarmen konnten wir bereits vielversprechende Ergebnisse erzielen. Diese Roboter erstellten probabilistische Modelle von vorgezeigten Bewegungen, erkannten welche Merkmale relevant sind und konnten selbstständig neue Aufgaben unter Zuhilfenahme der gelernten Modelle lösen.
Als nächsten Schritt werden wir unseren humanoiden Roboter iCub mit diesen probabilistischen Lernfähigkeiten ausstatten. iCub soll lernen, zu laufen und komplexe Aufgaben wie Haushaltstätigkeiten durchzuführen.
Spannend bleibt, ob mit iCub dem komplexen menschlichen Lernvermögen ein ebenbürtiges Objekt gegenübergestellt werden kann.
Dr. Elmar Rückert, im Fachbereich Informatik Arbeitsgruppe Intelligente Autonome Systeme