EBRAINS의 로봇은 비전과 터치를 결합하는 방법을 배웠습니다.

업데이트: 9년 2023월 XNUMX일

뇌가 우리가 세상을 인식하고 탐색하도록하는 방법은인지의 가장 매력적인 측면 중 하나입니다. 방향을 잡을 때 우리는 여섯 가지 감각의 정보를 겉보기에 쉽게 결합 할 수 있습니다. 이는 가장 진보 된 AI 시스템조차도 복제하기 어려운 기능입니다.

새로운 EBRAINS 연구 인프라에서 인지 신경과학자, 전산 모델러 및 로봇공학자들은 이제 협력하여 이 뒤에 있는 신경 메커니즘에 대한 새로운 정보를 제공합니다. 로봇 내부 작동 방식이 뇌를 모방한 것입니다.

“우리는 뇌에 ​​대한 지식을 사용하여 로봇을 향상시킬 수 있다고 믿습니다. 하지만 동시에 이것은 우리가 뇌를 더 잘 이해하는 데 도움이 될 수 있습니다.”라고 암스테르담 대학의인지 및 시스템 신경 과학 교수 인 Cyriel Pennartz는 말합니다.

인간 두뇌 프로젝트에서 Pennartz는 계산 모델러 Shirin Dora, Sander Bohte 및 Jorge F. Mejias와 협력하여 쥐의 실제 데이터를 기반으로 인식을위한 복잡한 신경망 아키텍처를 만들었습니다. “MultiPrednet”이라고 불리는 그들의 모델은 시각 및 촉각 입력을위한 모듈과이를 병합하는 세 번째 모듈로 구성됩니다.

Pennartz는“우리가 처음으로 복제 할 수 있었던 것은 뇌가 다른 감각을 통해 예측을한다는 것입니다. "그래서 당신은 그것을보고 어떤 느낌이들 것인지를 예측할 수 있고 그 반대의 경우도 마찬가지입니다."

이러한 네트워크가 '훈련'하는 방식은 과학자들이 우리의 뇌가 학습한다고 생각하는 방식과 유사합니다. 세계에 대한 예측을 지속적으로 생성하고 실제 감각 입력과 비교 한 다음 미래의 오류 신호를 피하기 위해 네트워크를 조정합니다.

MultiPrednet이 신체에서 어떻게 작동하는지 테스트하기 위해 연구진은 Bristol Robotics Lab의 Martin Pearson과 협력했습니다. 그들은 함께 눈을위한 머리 장착형 카메라와 촉각 정보를 수집하기 위해 24 개의 인공 수염을 사용하여 환경을 자율적으로 탐색하는 설치류와 같은 로봇 인 Whiskeye에 통합했습니다.

연구진은 뇌 기반 모델이 기존의 딥 러닝 시스템보다 우위에 있다는 첫 징후를 관찰했습니다. 특히 익숙한 장면의 탐색 및 인식과 관련하여 MultiPredNet이 더 나은 성능을 보이는 것 같습니다.이 발견은 이제 팀이 더 조사하기를 희망합니다.

이 연구를 가속화하기 위해 로봇은 EBRAINS 연구 인프라의 Neurorobotics 플랫폼에서 시뮬레이션으로 재현되었습니다. "이를 통해 통제 된 조건에서 장기간 또는 병렬 실험을 수행 할 수 있습니다."라고 Pearson은 말합니다. "우리는 또한 미래에 훨씬 더 상세한 제어 및 인식 모델을 위해 고성능 및 뉴 로모 픽 컴퓨팅 플랫폼을 사용할 계획입니다."

작업의 모든 코드 및 분석 도구는 EBRAINS에서 공개되어 연구자들이 자신의 실험을 실행할 수 있습니다. Pennartz는“이것은 독특한 상황입니다. 여기 신경 생물학을 기반으로 한 흥미로운 인식 모델이 있다고 말할 수 있었고 슈퍼 컴퓨터를 사용하여 더 큰 규모로 테스트하고 로봇에 구현하면 좋을 것입니다. 이 작업은 일반적으로 매우 복잡하지만 EBRAINS는이를 가능하게합니다.”

HBP의 과학 연구 책임자 인 Katrin Amunts는“인지를 이해하려면 환경에서 뇌가 신체의 일부로 작용하는 방식을 탐구해야합니다. 인지 신경 과학과 로봇 공학은이 점에서 서로에게서 많은 것을 얻을 수 있습니다. Human Brain Project는 이러한 커뮤니티를 하나로 모았으며 이제는 우리의 스탠딩 인프라를 통해 그 어느 때보 다 쉽게 협력 할 수 있습니다.”

EBRAINS의 CEO이자 HBP의 사무 총장 인 Pawel Swieboda는 다음과 같이 말합니다.“미래의 로봇은 뇌 과학의 통찰력을 AI에 연결하는 혁신의 혜택을받을 것입니다. 로봇. EBRAINS를 통해 유럽은 보다 생물학적 영감을 받은 AI로의 전환의 중심에 있을 수 있습니다. technology. "