센서 융합: 로봇 공학에서 최적의 자율성을 달성하는 열쇠

업데이트: 5년 2021월 XNUMX일

눈을 가린 채 미지의 지역을 걷는다고 상상해 보십시오. 당신이 무언가를 칠 확률은 매우 높습니다. 그리고 그것은 센서가 장착되지 않은 로봇이 직면하게 될 바로 그 상황입니다. 사용 감지기 퓨전은 로봇이 어떤 환경에서도 안전하게 탐색할 수 있도록 다양한 센서에서 데이터를 수집할 수 있도록 합니다.

로봇은 자신에게 알려지지 않았지만 물체를 감지하고 해당 물체를 분류한 다음 궁극적으로 이를 피함으로써 반응하고 적응해야 하는 환경을 탐색해야 합니다. 또한 로봇은 예를 들어 게이트, 절벽 또는 통로를 식별하여 횡단하는 영역을 매핑하고 다른 인간 및 로봇과 안전하게 공존해야 합니다.

특히 자율 이동 로봇(AMR)을 살펴보면 설계자가 효과적이고 자율적인 탐색을 달성하기 위해 해결해야 하는 세 가지 과제가 있습니다.

  • 안전한 인간 존재 감지. 사람의 존재를 감지하는 기능을 용이하게 하는 것은 로봇이 해당 영역에 근접한 사람을 멈추거나 피할 수 있도록 하는 로봇 주변의 안전 영역을 정의하는 것으로 시작됩니다.
  • 매핑 및 현지화. 로봇은 작동할 환경에 대한 지도가 있어야 하며 특정 시점에 위치를 파악해야 지정된 시작 지점으로 돌아가거나 미리 정의된 목적지에 도달할 수 있습니다.
  • 충돌 회피. AMR은 경로에 있는 물체를 피하고 모든 종류의 장애물을 피하여 통로나 게이트를 탐색해야 합니다.

센서 융합은 안내 차량에서 모든 환경에서 안전하게 작동하는 완전 자율 차량으로 이동하는 로봇의 중요한 단계를 나타냅니다. (출처: Texas Instruments Inc.)

서로 융합될 때 로봇이 어떤 환경에서도 독립적이고 안전하게 작업할 수 있는 자율성을 제공하는 다양한 유형의 감지 기술을 사용하여 이러한 문제를 해결할 수 있습니다.

LiDAR 및 레이더는 AMR 주변에 안전 거품을 생성하여 사람의 존재를 감지할 수 있도록 하는 데 사용되는 가장 널리 사용되는 기술입니다.

하지만 최고의 센서는 무엇입니까? technology 실내 매핑 및 위치 파악을 해결하려면? AMR은 알려지지 않은 환경을 고려하여 초음파, LiDAR, 3D 비행 시간 및 레이더 센서를 사용하여 가장 가까운 물체나 구조물의 위치를 ​​측정하여 동적 지도를 생성해야 합니다. 그런 다음 자이로스코프, 가속도계 및 인코더는 AMR이 원래 위치에서 이동한 거리를 측정할 수 있습니다.

충돌 방지를 위해 설계하려면 물체의 특성(재료, 모양, 색상)과 정적 물체(예: 벽 또는 선반) 또는 동적 물체(예: 다른 로봇)인지 여부를 아는 것이 중요합니다.

그것이 정적인 물체라면 로봇은 물체를 미리 피할 계획을 세울 수 있도록 영역을 매핑하는 동안 해당 정보를 획득해야 합니다. 동적 물체인 경우 실시간으로 서로 다른 센서에서 오는 데이터를 융합하면 물체로부터의 거리, 크기 및 속도를 감지할 수 있으므로 능동 충돌 회피를 구현할 수 있습니다.

센서 융합은 개별 센서 기술의 개별 한계를 극복함으로써 이러한 문제를 해결합니다. 예를 들어, 레이더와 LiDAR는 높은 정밀도와 정확도로 거리를 측정하는 데 능숙하고 열악한 조명 조건에서 작동하며 기상 조건의 영향을 받지 않습니다.

반면에 카메라는 우리의 눈과 마찬가지로 사물을 분류하고 모양과 색상을 구별하는 데 능숙하지만 환경 조건에서 성능이 제한되어 궁극적으로 가시성이 저하됩니다. 서로 다른 센서 기술을 사용해야만 AMR이 어떤 환경, 심지어 알려지지 않은 환경에서도 안전하게 탐색할 수 있는 수준의 자율성을 달성할 수 있습니다.

텍사스 인스트루먼트(TI)는 전체 로봇 신호 체인을 포괄하는 포트폴리오를 통해 센서에서 AMR 센서 융합에 필요한 프로세서에 이르기까지 모든 것을 제공할 수 있습니다.

이 회사의 센서 포트폴리오는 센서 융합 구현을 위한 개별 솔루션에서 고도로 통합된 솔루션까지 다양합니다. 예를 들어 Safety Integrity Level-2 60 및 77GHz 단일 칩 TI 밀리미터파(mmWave) 센서는 디지털 신호 프로세서, 마이크로컨트롤러 및 고주파 프런트 엔드를 통합하고 거리, 속도에 대한 측정값을 생성합니다. , 그리고 AMR의 시야에서 물체의 입사각.

센서와 함께 안전 영역 스캐너를 구현하면 로봇이 XNUMX차원에서 물체를 감지하고 위치를 파악할 수 있습니다. AMR은 사람을 감지하는 것 외에도 사람의 이동 방향과 속도를 결정할 수 있습니다. 이 정보를 통해 로봇은 주변에 안전 영역을 정의하고 사람이 얼마나 가까이 있는지에 따라 속도를 동적으로 조정할 수 있습니다.

예를 들어 카메라와 TI mmWave 센서를 결합하면 AMR이 단일 센서만으로는 불가능한 물체의 특성에 대한 추가 정보를 얻을 수 있습니다. 물론 레이더와 카메라의 융합은 시스템에 다음과 같은 추가적인 문제를 야기합니다.

  • OpenCV 보정 루틴과 체스판 캡처 알고리즘으로 카메라를 보정하는 동시에 모서리 반사기로 레이더를 보정하는 것이 가능합니다.
  • 데이터 동기화. 들어오는 데이터 스트림의 병렬 처리를 달성하려면 레이더와 카메라 간의 시간 동기화가 필요합니다.
  • 공간 데이터 정렬. 데이터가 계산됨에 따라 다른 센서와 관점에서 오는 이미지를 오버레이하는 프로세스가 시작됩니다.
  • 물체 인식 및 분류. 공간 정렬, 클러스터링 및 분류를 수행한 후 데이터는 객체 인식 및 분류를 가능하게 합니다.

TI Jacinto 프로세서는 모든 센서 데이터를 캡처하고, 데이터를 처리하고, 측정값을 해석하여 AMR을 제어함으로써 센서 융합을 가속화합니다. Jacinto 소프트웨어 개발 키트에는 TensorFlow Lite와 같은 딥 러닝 오픈 소스 프레임워크와 이미지 분류, 객체 감지 및 의미 체계를 포함하여 앞서 언급한 몇 가지 문제를 해결하는 컴퓨터 비전 및 인식 도구 키트가 포함된 도구가 있습니다. 분할.

센서 융합은 센서 장치를 시스템의 노드로 사용할 수 있는 로봇 운영 체제 환경 내에서 구현되어야 하며, 이에 따라 센서 장치를 융합하고 테스트하여 논문에서 논의된 문제를 해결해야 합니다.

센서 융합은 특히 AMR이 인간과 협력하는 경우 실시간으로 발생해야 합니다. 로봇은 여전히 ​​작업을 수행하는 동안 근처에 있는 인간에게 해를 끼치지 않도록 센서에서 오는 데이터에 의존해야 하기 때문입니다. AMR이 센서 입력을 기반으로 빠르게 반응할 수 있도록 고속 통신 인터페이스를 통해 센서 노드에서 로봇의 두뇌로 데이터 스트림을 가져오는 것은 실시간 응답을 위한 필수 요소입니다.

센서에서 수집한 데이터는 로봇이 자동으로 의존하고 실시간 결정을 내리고 역동적인 실제 환경에서 탐색하는 더 나은 기계 학습 및 인공 지능 모델을 구축하는 데 도움이 될 수 있습니다.

센서 융합과 함께 발생하는 많은 문제에도 불구하고 이 기술은 로봇 공학에서 가이드 차량에서 완전히 자율적인 차량으로 이동하는 중요한 단계를 나타냅니다. 이는 최종적으로 인간과 로봇 간의 공존을 허용하고 작업을 보다 효율적이고 수익성 있게 만들 것입니다.

저자,

Giovanni Campanella는 건물 자동화, 소매 자동화, 지불 및 가전 제품에 중점을 둔 Texas Instruments의 부문 총책임자입니다. Giovanni는 전 세계적으로 고객 설계 문제를 해결하는 데 도움이 되는 팀을 이끌고 있습니다. 그는 아날로그 및 센싱 기술에 대한 폭넓은 경험은 물론 실제적인 태도와 결합된 강력한 분석 및 대인 관계 기술을 보유하고 있습니다. Giovanni는 볼로냐 대학에서 전자 및 통신 공학 학사 학위를, 토리노 공과 대학에서 전자 공학 석사 학위를 받았습니다.

텍사스 인스트루먼트에 대해