Fusion de capteurs : la clé pour atteindre une autonomie optimale en robotique

Mise à jour : 5 novembre 2021

Imaginez marcher dans une zone qui vous est inconnue, les yeux bandés. Les chances que vous frappiez quelque chose sont très élevées. Et c'est exactement ce à quoi les robots seraient confrontés s'ils n'étaient pas équipés de capteurs. À l'aide de capteur La fusion permet de collecter des données par les différents capteurs pour permettre aux robots de naviguer en toute sécurité dans n'importe quel environnement.

Les robots doivent naviguer dans des environnements qui leur sont inconnus mais auxquels ils doivent réagir et s'adapter en détectant des objets, en classant ces objets, puis en les évitant finalement. En outre, le robot doit également cartographier la zone qu'il traverse en identifiant les portes, les falaises ou les allées, par exemple, et coexister en toute sécurité avec d'autres humains et robots.

En ce qui concerne spécifiquement les robots mobiles autonomes (AMR), les concepteurs doivent relever trois défis pour parvenir à une navigation efficace et autonome :

  • Détection sûre de présence humaine. Faciliter la capacité à détecter la présence d'humains commence par la définition d'une zone de sécurité autour du robot qui l'obligera à arrêter ou à éviter une personne à proximité de cette zone.
  • Cartographie et localisation. Le robot doit avoir une carte de l'environnement dans lequel il va opérer, tout en sachant où il se trouve à tout moment, afin qu'il puisse revenir à un point de départ spécifié ou atteindre une destination prédéfinie.
  • Évitement de collision. L'AMR doit éviter les objets qui se trouvent sur son chemin et naviguer dans les allées ou les portes en évitant tout type d'obstacle.

La fusion de capteurs représente une étape importante dans la robotique pour passer de véhicules guidés à des véhicules entièrement autonomes qui fonctionnent en toute sécurité dans n'importe quel environnement. (Source : Texas Instruments Inc.)

Il est possible de relever ces défis en utilisant différents types de technologies de détection qui, lorsqu'elles sont fusionnées, confèrent au robot un niveau d'autonomie lui permettant de travailler de manière indépendante et en toute sécurité dans n'importe quel environnement.

Le LiDAR et le radar sont les technologies les plus utilisées pour créer une bulle de sécurité autour des AMR afin qu'ils puissent détecter la présence d'humains.

Mais quel est le meilleur capteur sans souci pour aborder la cartographie et la localisation intérieures ? Dans un environnement inconnu, l’AMR devrait créer une carte dynamique en mesurant la position des objets ou des structures les plus proches à l’aide de capteurs à ultrasons, LiDAR, temps de vol 3D et radar. Ensuite, des gyroscopes, des accéléromètres et des encodeurs pourraient mesurer la distance parcourue par l’AMR depuis son emplacement d’origine.

Pour concevoir pour éviter les collisions, il est important de connaître les caractéristiques de l'objet (matériau, forme, couleur) et s'il s'agit d'un objet statique (par exemple, un mur ou une étagère) ou d'un objet dynamique (comme un autre robot).

S'il s'agit d'un objet statique, le robot doit acquérir cette information lors de la cartographie de la zone afin qu'il puisse planifier à l'avance pour éviter l'objet. S'il s'agit d'un objet dynamique, la fusion de données provenant de différents capteurs en temps réel pourrait détecter la distance de l'objet, sa dimension et sa vitesse, mettant ainsi en œuvre un évitement actif des collisions.

La fusion de capteurs relève ces défis en surmontant les limites individuelles des technologies de capteurs individuels. Par exemple, le radar et le LiDAR sont bons pour mesurer les distances avec une grande précision et précision, fonctionnent dans de mauvaises conditions d'éclairage et ne sont pas affectés par les conditions météorologiques.

D'un autre côté, les caméras, comme nos yeux, sont douées pour classer les objets et distinguer les formes et les couleurs, mais ont des performances limitées dans les conditions environnementales, ce qui conduit finalement à une faible visibilité. Ce n'est qu'en utilisant différentes technologies de capteurs qu'un AMR peut atteindre un niveau d'autonomie qui lui permettra de naviguer en toute sécurité dans n'importe quel environnement, même des environnements qui lui sont inconnus.

Texas Instruments (TI) peut tout fournir, des capteurs aux processeurs nécessaires à la fusion de capteurs AMR avec un portefeuille qui couvre l'ensemble de la chaîne de signaux robotiques.

Le portefeuille de capteurs de la société va des solutions discrètes aux solutions hautement intégrées pour la mise en œuvre de la fusion de capteurs. Par exemple, les capteurs à ondes millimétriques (mmWave) TI à puce unique 2 et 60 GHz de niveau d'intégrité de sécurité 77 intègrent un processeur de signal numérique, un microcontrôleur et un frontal à haute fréquence et génèrent des valeurs mesurées pour la distance, la vitesse , et l'angle d'incidence des objets dans le champ de vision d'un AMR.

La mise en œuvre d'un scanner de zone de sécurité avec le capteur permet au robot de détecter et de localiser des objets en trois dimensions. Au-delà de la détection d'un humain, l'AMR peut également déterminer la direction de déplacement et la vitesse de cet humain. Avec ces informations, le robot peut définir une zone de sécurité autour de lui et ajuster dynamiquement sa vitesse, en fonction de la proximité de l'humain.

La combinaison d'une caméra avec un capteur TI mmWave, par exemple, permet à l'AMR d'obtenir des informations supplémentaires sur les caractéristiques d'un objet qui ne seraient pas possibles avec un seul capteur. Bien sûr, la fusion du radar et de la caméra apporte des défis supplémentaires au système, tels que :

  • Il est possible d'étalonner les caméras avec les routines d'étalonnage OpenCV et l'algorithme de capture d'échiquier tout en étalonnant les radars avec des réflecteurs d'angle.
  • Synchronisation des données. La réalisation du traitement parallèle d'un flux de données entrant nécessite une synchronisation temporelle entre le radar et la caméra.
  • Alignement des données spatiales. Au fur et à mesure que les données sont calculées, le processus de superposition d'images provenant de différents capteurs et points de vue commence.
  • Reconnaissance et classification d'objets. Après avoir effectué l'alignement spatial, le regroupement et la classification, les données permettront la reconnaissance et la classification des objets.

Le processeur TI Jacinto accélère la fusion des capteurs en capturant toutes les données des capteurs, en traitant les données et en interprétant les mesures pour contrôler l'AMR. Le kit de développement logiciel Jacinto contient des outils qui incluent des frameworks open source d'apprentissage en profondeur tels que TensorFlow Lite, ainsi qu'un kit d'outils de vision et de perception par ordinateur qui répondent à certains des défis mentionnés précédemment, notamment la classification d'images, la détection d'objets et la sémantique. segmentation.

La fusion de capteurs doit être mise en œuvre dans un environnement de système d'exploitation de robot qui permet l'utilisation de dispositifs de capteurs en tant que nœuds du système, en fusionnant et en testant les dispositifs de capteurs en conséquence pour résoudre les défis abordés dans le document.

La fusion des capteurs doit se produire en temps réel, surtout si l'AMR collabore avec des humains, car le robot doit s'appuyer sur les données provenant des capteurs pour s'assurer qu'il ne blesse aucun humain à proximité tout en effectuant des tâches. Amener le flux de données du nœud de capteur au cerveau du robot avec une interface de communication à haute vitesse est un must pour une réponse en temps réel afin que l'AMR puisse réagir rapidement en fonction des entrées du capteur.

Les données acquises à partir des capteurs peuvent également aider à créer de meilleurs modèles d'apprentissage automatique et d'intelligence artificielle sur lesquels les robots s'appuient pour devenir autonomes, prendre des décisions en temps réel et naviguer dans des environnements dynamiques du monde réel.

Malgré les nombreux défis liés à la fusion de capteurs, cette technologie représente une étape importante dans la robotique pour passer de véhicules guidés à des véhicules entièrement autonomes qui permettront enfin la coexistence entre les humains et les robots et rendront le travail plus efficace et rentable.

A propos de l'auteure

Giovanni Campanella est directeur général de secteur chez Texas Instruments, spécialisé dans l'automatisation des bâtiments, l'automatisation de la vente au détail, les paiements et les appareils électroménagers. Giovanni dirige une équipe qui aide à résoudre les défis de conception des clients à l'échelle mondiale. Il possède une vaste expérience des technologies analogiques et de détection ainsi que de solides compétences analytiques et interpersonnelles combinées à une attitude pratique. Giovanni est titulaire d'une licence en électronique et ingénierie des télécommunications de l'Université de Bologne et d'une maîtrise en ingénierie électronique de l'Université polytechnique de Turin.

à propos de Texas Instruments