センサーフュージョン:ロボット工学で最適な自律性を実現するための鍵

更新: 5 年 2021 月 XNUMX 日

目隠しをして、あなたの知らない場所を歩いていると想像してみてください。 何かにぶつかる可能性は非常に高いです。 そしてそれは、センサーが装備されていない場合にロボットが直面することとまったく同じです。 使用する センサー Fusionを使用すると、さまざまなセンサーでデータを収集して、ロボットがあらゆる環境を安全にナビゲートできるようになります。

ロボットは、未知の環境をナビゲートする必要がありますが、オブジェクトを検出し、それらのオブジェクトを分類し、最終的には回避することによって、それに反応して適応する必要があります。 さらに、ロボットは、ゲート、崖、通路などを識別して、通過する領域をマッピングし、他の人間やロボットと安全に共存する必要もあります。

特に自律移動ロボット(AMR)を見ると、効果的な自律ナビゲーションを実現するために設計者が解決する必要のあるXNUMXつの課題があります。

  • 安全な人間の存在の検出。 人間の存在を検出する機能を促進することは、ロボットの周囲の安全区域を定義することから始まります。これにより、ロボットはその区域の近くにいる人を停止または回避します。
  • マッピングとローカリゼーション。 ロボットは、指定された開始点に戻ったり、事前に定義された目的地に到達したりできるように、動作する環境のマップを持っている必要があります。また、任意の時点でロボットがどこにあるかを知っている必要があります。
  • 衝突回避。 AMRは、その経路にあるオブジェクトを回避し、あらゆる種類の障害物を回避することによって通路またはゲートをナビゲートする必要があります。

センサーフュージョンは、誘導車両からあらゆる環境で安全に動作する完全自律型車両に移行するためのロボット工学における重要なステップです。 (出典:Texas Instruments Inc.)

さまざまなタイプのセンシングテクノロジーを使用することで、これらの課題に対処することができます。これらのテクノロジーを融合すると、ロボットに自律性のレベルが与えられ、どのような環境でも独立して安全に動作できるようになります。

LiDARとレーダーは、AMRの周囲に安全バブルを作成して、人間の存在を検出できるようにするために使用される最も一般的なテクノロジーです。

しかし、最高のセンサーは何ですか テクノロジー 屋内のマッピングと位置特定に対処するには? 未知の環境を考慮すると、AMR は、超音波、LiDAR、3D 飛行時間センサー、およびレーダー センサーを使用して最も近い物体または構造物の位置を測定することにより、動的マップを作成する必要があります。 その後、ジャイロスコープ、加速度計、エンコーダーを使用して、AMR が元の位置から移動した距離を測定できるようになります。

衝突回避のために設計するには、オブジェクトの特性(材料、形状、色)と、それが静的オブジェクト(壁や棚など)であるか動的オブジェクト(別のロボットなど)であるかを知ることが重要です。

静的オブジェクトの場合、ロボットはエリアのマッピング中にその情報を取得して、オブジェクトを事前に回避するように計画できるようにする必要があります。 動的オブジェクトの場合、さまざまなセンサーからのデータをリアルタイムで融合することで、オブジェクトからの距離、寸法、速度を検出できるため、アクティブな衝突回避を実装できます。

センサーフュージョンは、個々のセンサーテクノロジーの個々の制限を克服することにより、これらの課題に対処します。 たとえば、レーダーとLiDARは、高精度で正確に距離を測定するのに優れており、劣悪な照明条件で動作し、気象条件の影響を受けません。

一方、カメラは私たちの目と同じように、オブジェクトの分類や形状や色の識別には優れていますが、環境条件でのパフォーマンスが制限されているため、最終的には視界が悪くなります。 さまざまなセンサーテクノロジーを使用することによってのみ、AMRは、未知の環境であっても、あらゆる環境を安全にナビゲートできるレベルの自律性を実現できます。

Texas Instruments(TI)は、ロボット信号チェーン全体にまたがるポートフォリオを使用して、センサーからAMRセンサーフュージョンに必要なプロセッサーまですべてを提供できます。

同社のセンサーポートフォリオは、センサーフュージョンを実装するためのディスクリートソリューションから高度に統合されたソリューションまで多岐にわたります。 たとえば、Safety Integrity Level-2GHzおよび60GHzシングルチップTIミリ波(mmWave)センサーは、デジタルシグナルプロセッサ、マイクロコントローラ、および高周波フロントエンドを統合し、距離、速度の測定値を生成します、およびAMRの視野内のオブジェクトの入射角。

センサー付きの安全エリアスキャナーを実装すると、ロボットはXNUMX次元で物体を検出して位置を特定できます。 AMRは、人間の検出だけでなく、その人間の移動方向と速度も判別できます。 この情報を使用して、ロボットは自分の周りの安全領域を定義し、人間の近さに応じて速度を動的に調整できます。

たとえば、カメラとTIミリ波センサーを組み合わせると、AMRは、単一のセンサーだけでは不可能な、オブジェクトの特性に関する追加情報を取得できます。 もちろん、レーダーとカメラの融合は、次のような追加の課題をシステムにもたらします。

  • コーナーリフレクターを使用してレーダーをキャリブレーションしながら、OpenCVキャリブレーションルーチンとチェス盤キャプチャアルゴリズムを使用してカメラをキャリブレーションすることができます。
  • データ同期。 着信データストリームの並列処理を実現するには、レーダーとカメラ間の時間同期が必要です。
  • 空間データの配置。 データが計算されると、さまざまなセンサーや視点からの画像をオーバーレイするプロセスが始まります。
  • オブジェクトの認識と分類。 空間アラインメント、クラスタリング、および分類を実行した後、データはオブジェクトの認識と分類を可能にします。

TI Jacintoプロセッサは、すべてのセンサーデータをキャプチャし、データを処理し、測定値を解釈してAMRを制御することにより、センサーの融合を加速します。 Jacintoソフトウェア開発キットには、TensorFlow Liteなどのディープラーニングオープンソースフレームワークを含むツールと、画像分類、オブジェクト検出、セマンティックなど、前述のいくつかの課題に対処するコンピュータービジョンおよび認識ツールキットが含まれています。セグメンテーション。

センサーフュージョンは、システムのノードとしてセンサーデバイスを使用できるようにするロボットオペレーティングシステム環境内に実装する必要があります。センサーデバイスをフュージョンおよびテストして、このホワイトペーパーで説明されている課題を解決します。

センサーの融合は、特にAMRが人間と協力している場合、リアルタイムで発生する必要があります。ロボットは、センサーからのデータに依存して、タスクの実行中に近くの人間に害を及ぼさないようにする必要があるためです。 センサーノードからロボットの脳に高速通信インターフェースを備えたデータストリームをもたらすことは、AMRがセンサー入力に基づいて迅速に反応できるように、リアルタイム応答に必須です。

センサーから取得したデータは、ロボットが自律的になり、リアルタイムの意思決定を行い、動的な実世界の環境をナビゲートするために依存する、より優れた機械学習モデルと人工知能モデルの構築にも役立ちます。

センサーフュージョンには多くの課題がありますが、このテクノロジーは、誘導車両から完全自律型車両に移行するロボット工学の重要なステップであり、最終的には人間とロボットの共存を可能にし、作業をより効率的かつ収益性の高いものにします。

著者,

Giovanni Campanellaは、Texas Instrumentsのセクターゼネラルマネージャーであり、ビルディングオートメーション、小売オートメーション、および支払いとアプライアンスに焦点を当てています。 Giovanniは、世界中で顧客の設計上の課題の解決を支援するチームを率いています。 彼は、アナログおよびセンシングテクノロジーの幅広い経験に加えて、実践的な態度と組み合わされた強力な分析および対人スキルを持っています。 ジョバンニは、ボローニャ大学で電子工学と電気通信工学の学士号を取得し、トリノ工科大学で電子工学の修士号を取得しています。

テキサスインスツルメンツについて