EBRAINSのロボットが視覚と触覚を組み合わせる方法を学びました

更新日: 9 年 2023 月 XNUMX 日

脳がどのようにして世界を認識し、世界をナビゲートできるかは、認知の最も興味深い側面の XNUMX つです。 自分自身の方向を定めるとき、私たちは一見楽な方法で六感すべてからの情報を常に組み合わせていますが、この機能は最先端の AI システムでも再現するのが困難です。

新しいEBRAINS研究インフラストラクチャでは、認知神経科学者、計算モデラー、ロボット工学者が現在協力して、この背後にある神経メカニズムに新たな光を当てています。 ロボット その内部の仕組みは脳を模倣しています。

「私たちは、脳に関する知識を活用することでロボットを改良できると信じています。 しかし同時に、これは脳をより深く理解するのにも役立ちます」とアムステルダム大学の認知とシステム神経科学の教授であるシリエル・ペンナーツは言います。

Human Brain プロジェクトでは、Pennartz 氏は計算モデラーの Shirin Dora 氏、Sander Bohte 氏、Jorge F. Mejias 氏と協力して、ラットの実生活データに基づいて知覚のための複雑なニューラル ネットワーク アーキテクチャを作成しました。 「MultiPrednet」と名付けられた彼らのモデルは、視覚的および触覚的入力のためのモジュールと、それらを統合する XNUMX 番目のモジュールで構成されています。

「私たちが初めて再現できたのは、脳がさまざまな感覚を超えて予測を行うということです」とペナーツ氏は説明する。 「つまり、それを見たときにどのように感じられるかを予測することができますし、その逆も同様です。」

これらのネットワークが「トレーニング」する方法は、科学者が考える私たちの脳の学習方法に似ています。つまり、世界に関する予測を常に生成し、それを実際の感覚入力と比較し、将来のエラー信号を回避するためにネットワークを適応させることによって行われます。

MultiPrednet が体内でどのように機能するかをテストするために、研究者らはブリストル ロボティクス研究所の Martin Pearson と協力しました。 彼らは共同で、これを、目にヘッドマウントカメラを使用し、触覚情報を収集するために 24 本の人工ひげを使用して環境を自律的に探索するげっ歯類のようなロボット、Whiskeye に統合しました。

研究者らは、脳ベースのモデルが従来の深層学習システムよりも優れていることを示す最初の兆候を観察した。特に、見慣れたシーンのナビゲーションと認識に関しては、MultiPredNet のパフォーマンスが優れているようだ。現在、チームはこの発見についてさらに調査したいと考えている。

この研究を加速するために、このロボットは EBRAINS 研究インフラストラクチャのニューロボティクス プラットフォーム上でシミュレーションとして再作成されました。 「これにより、制御された条件下で長時間の実験や並行した実験を行うことが可能になります」とピアソン氏は言います。 「将来的には、より詳細な制御と知覚のモデルに、ハイパフォーマンスおよびニューロモーフィック コンピューティング プラットフォームを使用する予定です。」

研究者のすべてのコードと分析ツールはEBRAINS上で公開されているため、研究者は独自の実験を実行できます。 「これはユニークな状況です」とペナーツ氏は言います。「これは神経生物学に基づいた興味深い知覚モデルであり、スーパーコンピューターを使用してロボットに組み込んでより大規模にテストできれば素晴らしいだろう、と言えました。」 これを行うのは通常非常に複雑ですが、EBRAINS を使用するとそれが可能になります。」

HBP の科学研究ディレクターであるカトリン・アムント氏は、「認知を理解するには、環境内で脳が体の一部としてどのように機能するかを調査する必要がある」と述べています。 この点で、認知神経科学とロボット工学は相互に得るものがたくさんあります。ヒューマン ブレイン プロジェクトはこれらのコミュニティを結び付け、現在ではインフラストラクチャが常駐しているため、これまで以上にコラボレーションが容易になりました。」

EBRAINS CEO 兼 HBP 事務局長の Pawel Swieboda 氏は次のようにコメントしています。「未来のロボットは、脳科学からの洞察を AI に結びつけ、 ロボット工学。 EBRAINS により、ヨーロッパはより生物にインスピレーションを得た AI への移行の中心となることができます。 テクノロジーに設立された地域オフィスに加えて、さらにローカルカスタマーサポートを提供できるようになります。」