연구원들은 미소 짓는 로봇을 만듭니다

업데이트: 26년 2021월 XNUMX일
연구원들은 미소 짓는 로봇을 만듭니다

우리의 표정이 신뢰를 쌓는 데 큰 역할을하지만, 대부분의 로봇은 여전히 ​​프로 포커 플레이어의 공허하고 정적 인 얼굴을 자랑합니다. 요양원에서 창고 및 공장에 이르기까지 로봇과 인간이 긴밀하게 협력해야하는 위치에서 로봇의 사용이 증가함에 따라보다 반응이 빠르고 현실적인 로봇에 대한 필요성이 더욱 시급 해지고 있습니다.

로봇과 인간 사이의 상호 작용에 오랫동안 관심이 있었던 Columbia Engineering의 Creative Machines Lab의 연구원들은 30 년 동안 주변 인간의 표정에 맞춰 반응하는 부드럽고 표현력이 풍부한 얼굴을 가진 새로운 자율 로봇 인 EVA를 개발했습니다. 이 연구는 2021 년 2021 월 XNUMX 일 ICRA 컨퍼런스에서 발표 될 예정이며 로봇 청사진은 Hardware-X (XNUMX 년 XNUMX 월)에서 오픈 소스로 제공됩니다.

Hod Lipson, James 및 Sally Scapa 혁신 교수 (기계식)는 "EVA에 대한 아이디어는 몇 년 전 제 학생들과 저는 우리 실험실의 로봇이 플라스틱과 같은 눈을 통해 우리를 응시하고 있다는 것을 알아 차리기 시작했습니다."라고 말했습니다. Engineering) 및 Creative Machines Lab 이사.

Lipson은 식료품 점에서 비슷한 경향을 관찰했는데, 그곳에서 그는 명찰을 착용 한 로봇을 재입고했으며, 어떤 경우에는 아늑하고 손으로 짠 모자로 꾸몄습니다. "사람들은 로봇 동료에게 눈, 정체성 또는 이름을 부여하여 인간화하는 것처럼 보였습니다."라고 그는 말했습니다. "이로 인해 우리는 눈과 의복이 효과가 있는지 궁금합니다. 표현력이 뛰어나고 반응이 빠른 사람의 얼굴을 가진 로봇을 만드는 것은 어떨까요?"

간단하게 들리지만, 설득력있는 로봇 얼굴을 만드는 것은 로봇 공학자들에게 엄청난 도전이었습니다. 수십 년 동안 로봇의 신체 부위는 금속이나 단단한 플라스틱으로 만들어져 왔는데, 이는 너무 뻣뻣해서 인체 조직이 움직이는 방식으로 흐르고 움직일 수 없습니다. 로봇 하드웨어도 마찬가지로 조잡하고 작업하기 어려웠습니다. 회로, 센서 및 모터는 무겁고 전력 집약적이며 부피가 큽니다.

프로젝트의 첫 번째 단계는 몇 년 전 학부생 인 Zanwar Faraj가 로봇의 물리적 "기계"를 구축하는 학생 팀을 이끌면서 Lipson의 실험실에서 시작되었습니다. 그들은 EVA를 블루 맨 그룹의 조용하지만 얼굴에 생기를 불어 넣은 연기자들과 강한 닮은 체형이없는 흉상으로 구성했습니다. EVA는 EVA의 특정 지점을 끌어 당기는 인공 "근육"(예 : 케이블 및 모터)을 사용하여 분노, 혐오, 두려움, 기쁨, 슬픔 및 놀라움의 여섯 가지 기본 감정과 더 많은 미묘한 감정을 표현할 수 있습니다. 얼굴의 피부와 뼈의 다양한 지점에 부착 된 42 개가 넘는 작은 근육의 움직임을 모방합니다.

"EVA를 만드는 데있어 가장 큰 도전은 인간의 두개골 안에 들어갈 수있을만큼 컴팩트 한 시스템을 설계하는 동시에 다양한 얼굴 표정을 생성 할 수있을만큼 충분히 기능적인 시스템을 설계하는 것이 었습니다."라고 Faraj는 말했습니다.

이 문제를 극복하기 위해 팀은 3D 프린팅에 크게 의존하여 EVA의 두개골과 원활하고 효율적으로 통합 된 복잡한 모양의 부품을 제조했습니다. 몇 주 동안 케이블을 잡아 당겨 EVA를 웃거나 찌푸 리거나 화나게 보이게 한 후, 팀은 EVA의 파란색, 체형이없는 얼굴이 실험실 동료로부터 감정적 인 반응을 이끌어 낼 수 있음을 발견했습니다. “EVA가 갑자기 크고 친근한 미소를 지었을 때 저는 제 사업을 염두에두고있었습니다.”라고 Lipson은 회상했습니다. "순전히 기계적인 것임을 알았지 만 반사적으로 미소를지었습니다."

팀이 EVA의 "역학"에 만족하자 그들은 프로젝트의 두 번째 주요 단계 인 EVA의 얼굴 움직임을 안내하는 인공 지능 프로그래밍을 다루기 시작했습니다. 실물 같은 애니 마 트로닉스 로봇이 테마파크와 영화 스튜디오에서 수년 동안 사용되어 왔지만 Lipson의 팀은 두 가지 기술 발전을 이루었습니다. EVA는 딥 러닝 인공 지능을 사용하여 "읽고"가까운 사람 얼굴의 표정을 미러링합니다. 그리고 다양한 인간 얼굴 표정을 모방하는 EVA의 능력은 자체 비디오를 보면서 시행 착오를 통해 학습됩니다.

자동화하기 가장 어려운 인간 활동은 복잡한 사회적 환경에서 일어나는 반복되지 않는 신체적 움직임을 포함합니다. Boyuan Chen, Lipson의 Ph.D. 프로젝트의 소프트웨어 단계를 이끌었던 학생은 EVA의 얼굴 움직임이 미리 정의 된 규칙 집합에 의해 관리 되기에는 너무 복잡하다는 것을 금방 깨달았습니다. 이 문제를 해결하기 위해 Chen과 두 번째 학생 팀은 여러 Deep Learning 신경망을 사용하여 EVA의 뇌를 만들었습니다. 로봇의 두뇌는 두 가지 기능을 익혀야했습니다. 첫째, 기계 근육의 복잡한 시스템을 사용하여 특정 표정을 생성하는 방법을 배우고, 둘째, 인간의 얼굴을 "읽어"어떤 얼굴을 만들지 아는 것입니다.

EVA에 자신의 얼굴이 어떻게 생겼는지 가르치기 위해 Chen과 팀은 일련의 무작위 얼굴을 만드는 EVA의 몇 시간 분량의 영상을 촬영했습니다. 그런 다음 사람이 Zoom에서 자신을보고있는 것처럼 EVA의 내부 신경망은 근육 동작을 얼굴의 비디오 영상과 쌍을 이루는 방법을 배웠습니다. 이제 EVA는 자신의 얼굴이 어떻게 작동하는지 ( "자기 이미지"라고 함) 원시적 인 감각을 갖게되었으므로 두 번째 네트워크를 사용하여 자신의 자아 이미지를 비디오 카메라로 캡처 한 사람의 얼굴 이미지와 일치 시켰습니다. 여러 번 수정하고 반복 한 후 EVA는 카메라에서 사람의 얼굴 제스처를 읽고 그 사람의 표정을 미러링하여 대응할 수있는 능력을 얻었습니다.

연구원들은 EVA가 실험실 실험이며 모방만으로는 인간이 얼굴 표정을 사용하여 의사 소통하는 복잡한 방식과는 거리가 멀다는 점에 주목합니다. 그러나 그러한 지원 기술은 언젠가 유익한 실제 응용 프로그램을 가질 수 있습니다. 예를 들어, 다양한 인체 언어에 반응 할 수있는 로봇은 직장, 병원, 학교 및 가정에서 유용 할 것입니다.

"우리 인간이 클라우드 기반 챗봇 또는 분리 된 스마트 홈 스피커에 감정적으로 참여할 수있는 정도에는 한계가 있습니다."라고 Lipson은 말했습니다. "우리의 두뇌는 일종의 인식 가능한 물리적 존재를 가진 로봇에 잘 반응하는 것 같습니다."

Chen 씨는“로봇은 점점 더 많은 방식으로 우리 삶에 얽혀 있기 때문에 인간과 기계 점점 더 중요 해지고 있습니다.”