Forscher entwickeln Roboter, der zurücklächelt

Update: 26. Mai 2021
Forscher entwickeln Roboter, der zurücklächelt

Während unser Gesichtsausdruck eine große Rolle beim Aufbau von Vertrauen spielt, tragen die meisten Roboter immer noch das leere und statische Gesicht eines professionellen Pokerspielers. Mit dem zunehmenden Einsatz von Robotern an Orten, an denen Roboter und Menschen eng zusammenarbeiten müssen, von Pflegeheimen bis hin zu Lagerhäusern und Fabriken, wird der Bedarf an einem reaktionsschnelleren, realistischeren Roboter immer dringlicher.

Forscher im Creative Machines Lab von Columbia Engineering sind seit langem an den Interaktionen zwischen Robotern und Menschen interessiert und arbeiten seit fünf Jahren an der Entwicklung von EVA, einem neuen autonomen Roboter mit einem weichen und ausdrucksstarken Gesicht, der auf die Mimik von Menschen in der Nähe reagiert. Die Forschung wird auf der ICRA-Konferenz am 30. Mai 2021 vorgestellt und die Roboter-Blaupausen sind Open-Source auf Hardware-X (April 2021).

„Die Idee für EVA nahm vor ein paar Jahren Gestalt an, als meine Studenten und ich bemerkten, dass die Roboter in unserem Labor uns mit Kulleraugen aus Plastik anstarrten“, sagte Hod Lipson, Professor für Innovation bei James und Sally Scapa (Mechanik). Ingenieurwesen) und Leiter des Creative Machines Lab.

Lipson beobachtete einen ähnlichen Trend im Lebensmittelgeschäft, wo er Auffüllrobotern begegnete, die Namensschilder trugen und in einem Fall eine gemütliche, handgestrickte Mütze trugen. „Menschen schienen ihre Roboterkollegen zu vermenschlichen, indem sie ihnen Augen, eine Identität oder einen Namen gaben“, sagte er. „Da haben wir uns gefragt: Wenn Augen und Kleidung funktionieren, warum nicht einen Roboter mit einem ausdrucksstarken und reaktionsschnellen menschlichen Gesicht bauen?“

Auch wenn das einfach klingt, war die Schaffung eines überzeugenden Robotergesichts für Robotiker eine gewaltige Herausforderung. Seit Jahrzehnten bestehen Roboterkörperteile aus Metall oder Hartplastik, Materialien, die zu steif waren, um zu fließen und sich wie menschliches Gewebe zu bewegen. Roboter-Hardware ist ähnlich grob und schwierig zu handhaben – Schaltkreise, Sensoren und Motoren sind schwer, energieintensiv und sperrig.

Die erste Phase des Projekts begann vor einigen Jahren in Lipsons Labor, als der Student Zanwar Faraj ein Studententeam beim Aufbau der physischen „Maschinerie“ des Roboters leitete. Sie konstruierten EVA als körperlose Büste, die eine starke Ähnlichkeit mit den stummen, aber im Gesicht bewegten Darstellern der Blue Man Group aufweist. EVA kann die sechs Grundemotionen Wut, Ekel, Angst, Freude, Traurigkeit und Überraschung sowie eine Reihe nuancierterer Emotionen ausdrücken, indem es künstliche „Muskeln“ (z. B. Kabel und Motoren) verwendet, die an bestimmten Punkten von EVAs ziehen Gesicht, das die Bewegungen der mehr als 42 winzigen Muskeln nachahmt, die an verschiedenen Stellen der Haut und Knochen menschlicher Gesichter befestigt sind.

„Die größte Herausforderung bei der Entwicklung von EVA bestand darin, ein System zu entwerfen, das kompakt genug ist, um in die Grenzen eines menschlichen Schädels zu passen, und gleichzeitig funktionell genug ist, um ein breites Spektrum an Gesichtsausdrücken zu erzeugen“, bemerkte Faraj.

Um diese Herausforderung zu meistern, verließ sich das Team stark auf den 3D-Druck, um Teile mit komplexen Formen herzustellen, die sich nahtlos und effizient in EVAs Schädel integrieren ließen. Nachdem das Team wochenlang an Kabeln gezogen hatte, um EVA zum Lächeln, Stirnrunzeln oder verärgerten Blick zu bringen, bemerkte es, dass EVAs blaues, körperloses Gesicht bei ihren Laborkollegen emotionale Reaktionen hervorrufen konnte. „Ich war eines Tages mit meinen eigenen Angelegenheiten beschäftigt, als EVA mir plötzlich ein breites, freundliches Lächeln schenkte“, erinnert sich Lipson. „Ich wusste, dass es rein mechanisch war, aber ich musste reflexartig zurücklächeln.“

Nachdem das Team mit der „Mechanik“ von EVA zufrieden war, begann es mit der zweiten Hauptphase des Projekts: der Programmierung der künstlichen Intelligenz, die die Gesichtsbewegungen von EVA steuern sollte. Während lebensechte animatronische Roboter schon seit Jahren in Freizeitparks und Filmstudios im Einsatz sind, hat Lipsons Team zwei technologische Fortschritte gemacht. EVA nutzt Deep-Learning-Künstliche Intelligenz, um die Gesichtsausdrücke in der Nähe befindlicher menschlicher Gesichter zu „lesen“ und dann zu spiegeln. Und EVAs Fähigkeit, ein breites Spektrum unterschiedlicher menschlicher Gesichtsausdrücke nachzuahmen, wird durch Ausprobieren beim Ansehen von Videos von sich selbst erlernt.

Zu den am schwierigsten zu automatisierenden menschlichen Aktivitäten gehören sich nicht wiederholende körperliche Bewegungen, die in komplizierten sozialen Umgebungen stattfinden. Boyuan Chen, Lipsons Ph.D. Der Student, der die Softwarephase des Projekts leitete, erkannte schnell, dass die Gesichtsbewegungen von EVA ein zu komplexer Prozess waren, als dass er durch vordefinierte Regelsätze gesteuert werden könnte. Um diese Herausforderung zu bewältigen, haben Chen und das zweite Studententeam das Gehirn von EVA mithilfe mehrerer neuronaler Deep-Learning-Netzwerke entwickelt. Das Gehirn des Roboters musste zwei Fähigkeiten beherrschen: Erstens musste es lernen, sein eigenes komplexes System mechanischer Muskeln zu nutzen, um einen bestimmten Gesichtsausdruck zu erzeugen, und zweitens musste es wissen, welche Gesichter es machen musste, indem es die Gesichter von Menschen „liest“.

Um EVA beizubringen, wie sein eigenes Gesicht aussah, filmten Chen und das Team stundenlang Filmmaterial, in dem EVA eine Reihe zufälliger Gesichter zeichnete. Dann lernten EVAs interne neuronale Netze, wie ein Mensch, der sich selbst auf Zoom beobachtet, Muskelbewegungen mit den Videoaufnahmen seines eigenen Gesichts zu verknüpfen. Da EVA nun ein primitives Gespür dafür hatte, wie sein eigenes Gesicht funktionierte (bekannt als „Selbstbild“), nutzte es ein zweites Netzwerk, um sein eigenes Selbstbild mit dem Bild eines menschlichen Gesichts abzugleichen, das mit seiner Videokamera aufgenommen wurde. Nach mehreren Verfeinerungen und Iterationen erlangte EVA die Fähigkeit, menschliche Gesichtsgesten von einer Kamera zu lesen und darauf zu reagieren, indem es den Gesichtsausdruck dieses Menschen widerspiegelte.

Die Forscher stellen fest, dass es sich bei EVA um ein Laborexperiment handelt und Mimik allein noch weit von der komplexen Art und Weise entfernt ist, wie Menschen mithilfe von Gesichtsausdrücken kommunizieren. Aber solche Grundlagentechnologien könnten eines Tages nützliche, reale Anwendungen haben. Beispielsweise wären Roboter, die in der Lage sind, auf eine Vielzahl menschlicher Körpersprachen zu reagieren, an Arbeitsplätzen, in Krankenhäusern, in Schulen und zu Hause nützlich.

„Es gibt eine Grenze dafür, wie sehr wir Menschen uns emotional mit Cloud-basierten Chatbots oder körperlosen Smart-Home-Lautsprechern auseinandersetzen können“, sagte Lipson. „Unser Gehirn scheint gut auf Roboter zu reagieren, die eine erkennbare physische Präsenz haben.“

Chen fügte hinzu: „Roboter sind auf immer vielfältigere Weise in unser Leben eingebunden und bauen so Vertrauen zwischen Menschen auf Maschinen wird immer wichtiger.“