研究者は笑顔で戻るロボットを作成します

更新日: 26 年 2021 月 XNUMX 日
研究者は笑顔で戻るロボットを作成します

私たちの顔の表情は信頼を築く上で大きな役割を果たしますが、ほとんどのロボットは依然としてプロのポーカー プレーヤーのような無表情で静止した顔をしています。 老人ホームから倉庫や工場まで、ロボットと人間が密接に連携する必要がある場所でのロボットの使用が増えるにつれて、より反応の良い、顔のリアルなロボットの必要性がますます緊急に高まっています。

ロボットと人間の相互作用に長い間興味を持っていたコロンビアエンジニアリングのクリエイティブマシンラボの研究者は、近くの人間の表情に合わせて反応する柔らかく表情豊かな顔を持つ新しい自律型ロボットであるEVAを作成するために30年間取り組んできました. 研究は 2021 年 2021 月 XNUMX 日の ICRA カンファレンスで発表され、ロボットの設計図は Hardware-X でオープンソース化されます (XNUMX 年 XNUMX 月)。

「EVA のアイデアは、数年前、私たちの学生と私が、ラボのロボットがプラスチックのぎょろっとした目で私たちを見つめていることに気づき始めたときに形になりました」と、James と Sally Scapa のイノベーション教授 (機械Engineering) であり、Creative Machines Lab のディレクターでもあります。

リプソンは食料品店でも同様の傾向を観察し、名札を付けた商品を補充しているロボットに出会い、あるケースでは居心地の良い手編みの帽子をかぶっていました。 「人々は、目、アイデンティティ、または名前を与えることで、ロボットの同僚を人間らしくしているように見えました」と彼は言いました. 「目と衣服が機能するのであれば、人間の非常に表情豊かで反応の良い顔を持つロボットを作ってみませんか?」

これは単純に聞こえるかもしれませんが、説得力のあるロボットの顔を作成することは、ロボット工学者にとって手ごわい挑戦でした。 何十年にもわたって、ロボットの体の部分は金属や硬質プラスチックでできており、その材質は硬すぎて人間の組織のように流れたり動いたりすることはありません。 ロボットのハードウェアも同様に粗雑で扱いが難しく、回路、センサー、モーターは重く、電力を大量に消費し、かさばります。

プロジェクトの第 42 段階は、数年前にリプソンの研究室で始まり、学部生のザンワール ファラジが学生のチームを率いて、ロボットの物理的な「機械」を構築しました。 彼らは、ブルーマン グループの無口だが表情豊かなパフォーマーに非常によく似た、実体のない胸像として EVA を構築しました。 EVAは、EVAの特定のポイントを引っ張る人工の「筋肉」(つまり、ケーブルとモーター)を使用して、怒り、嫌悪、恐怖、喜び、悲しみ、驚きのXNUMXつの基本的な感情と、より微妙な感情の配列を表現できます。人間の顔の皮膚や骨のさまざまな場所にある XNUMX を超える小さな筋肉の動きを模倣しています。

「EVA を作成する際の最大の課題は、人間の頭蓋骨の範囲内に収まるほどコンパクトでありながら、さまざまな表情を生成するのに十分な機能を備えたシステムを設計することでした」と Faraj 氏は述べています。

この課題を克服するために、チームは 3D プリントに大きく依存して、EVA の頭蓋骨とシームレスかつ効率的に統合された複雑な形状の部品を製造しました。 EVA を笑顔にしたり、眉をひそめたり、動揺させたりするためにケーブルを引っ張って数週間後、チームは、EVA の青い、身体のない顔が研究室の仲間から感情的な反応を引き出すことができることに気付きました。 「ある日、自分の仕事のことを考えていたとき、EVA が突然私に大きなフレンドリーな笑顔を見せてくれました」とリプソンは思い起こします。 「純粋に機械的なものであることはわかっていましたが、反射的に微笑み返していることに気づきました」

チームが EVA の「仕組み」に満足すると、プロジェクトの XNUMX 番目の主要な段階、つまり EVA の顔の動きを導く人工知能のプログラミングに取り組み始めました。 本物そっくりのアニマトロニクス ロボットがテーマパークや映画スタジオで何年も使用されている一方で、リプソンのチームは XNUMX つの技術的進歩を遂げました。 EVA は、深層学習の人工知能を使用して、近くの人の顔の表情を「読み取り」、それをミラーリングします。 そして、EVA のさまざまな人間のさまざまな表情を模倣する能力は、自身の動画を見て試行錯誤することで習得されます。

自動化するのが最も難しい人間の活動は、複雑な社会環境で発生する非反復的な身体の動きです。 Boyuan Chen、リプソン博士プロジェクトのソフトウェア フェーズを率いた学生は、EVA の顔の動きが、事前に定義されたルール セットで管理するには複雑すぎるプロセスであることにすぐに気付きました。 この課題に取り組むために、Chen と XNUMX 番目の学生チームは、いくつかの深層学習ニューラル ネットワークを使用して EVA の脳を作成しました。 ロボットの脳は XNUMX つの能力を習得する必要がありました.XNUMX つ目は、機械的筋肉の複雑なシステムを使用して特定の顔の表情を生成することを学習すること、XNUMX つ目は、人間の顔を「読み取る」ことでどの顔を作るかを知ることです。

EVA に自分の顔がどのように見えるかを教えるために、チェンとチームは、EVA がランダムな顔を何時間も作っている映像を撮影しました。 次に、人間がズームで自分自身を見ているように、EVA の内部ニューラル ネットワークは、筋肉の動きと自分の顔のビデオ映像を組み合わせる方法を学習しました。 EVA は、自分の顔がどのように機能するか (「セルフイメージ」として知られる) についての原始的な感覚を持っていたので、XNUMX 番目のネットワークを使用して、自分のセルフイメージをビデオカメラでキャプチャした人の顔のイメージと一致させました。 いくつかの改良と反復の後、EVA はカメラから人の顔のジェスチャーを読み取り、その人の顔の表情を反映して応答する能力を獲得しました。

研究者たちは、EVA は実験室での実験であり、模倣だけでは、人間が顔の表情を使ってコミュニケーションする複雑な方法とはかけ離れていると述べています。 しかし、そのような可能にするテクノロジーは、いつの日か、有益な実際のアプリケーションを持つ可能性があります。 たとえば、さまざまな人間のボディ ランゲージに応答できるロボットは、職場、病院、学校、家庭で役立ちます。

「私たち人間が、クラウドベースのチャットボットや、身体を持たないスマートホーム スピーカーに感情的に関与できる量には限界があります」とリプソン氏は述べています。 「私たちの脳は、ある種の認識可能な物理的存在を持つロボットによく反応するようです。」

Chen は次のように付け加えています。「ロボットはますます多くの方法で私たちの生活に絡み合っています。 ますます重要になってきています。」