Fusión de sensores: la clave para lograr una autonomía óptima en robótica

Actualización: 5 de noviembre de 2021

Imagínese caminando en un área desconocida para usted, con los ojos vendados. Las posibilidades de que le pegue a algo son muy altas. Y eso es exactamente a lo que se enfrentarían los robots si no estuvieran equipados con sensores. Utilizando sensor Fusion permite que los diferentes sensores recopilen datos para permitir que los robots naveguen de forma segura a través de cualquier entorno.

Los robots deben navegar a través de entornos desconocidos para ellos, pero a los que necesitan reaccionar y adaptarse detectando objetos, clasificándolos y finalmente evitándolos. Además, el robot también necesita mapear el área por la que está atravesando identificando puertas, acantilados o pasillos, por ejemplo, y coexistir de manera segura con otros humanos y robots.

Mirando específicamente a los robots móviles autónomos (AMR), hay tres desafíos que los diseñadores deben resolver para lograr una navegación autónoma y efectiva:

  • Detección segura de presencia humana. Facilitar la capacidad de detectar la presencia de humanos comienza con la definición de un área de seguridad alrededor del robot que hará que se detenga o evite a una persona en las proximidades de esa área.
  • Mapeo y localización. El robot debe tener un mapa del entorno donde va a operar, además de saber dónde está ubicado en cualquier momento, para que pueda regresar a un punto de partida especificado o llegar a un destino predefinido.
  • Evitación de colisiones. El AMR debe evitar los objetos que se encuentren en su camino y navegar por pasillos o puertas evitando cualquier tipo de obstáculo.

La fusión de sensores representa un paso importante en robótica para pasar de vehículos guiados a vehículos totalmente autónomos que operan de forma segura en cualquier entorno. (Fuente: Texas Instruments Inc.)

Es posible abordar estos desafíos mediante el uso de diferentes tipos de tecnologías de detección que, cuando se fusionan, otorgan al robot un nivel de autonomía que le permite trabajar de forma independiente y segura en cualquier entorno.

LiDAR y el radar son las tecnologías más populares que se utilizan para crear una burbuja de seguridad alrededor de los AMR para que puedan detectar la presencia de humanos.

Pero ¿cuál es el mejor sensor? la tecnología para abordar el mapeo y la localización de interiores? Considerando un entorno desconocido, el AMR necesitaría crear un mapa dinámico midiendo la posición de los objetos o estructuras más cercanos con sensores ultrasónicos, LiDAR, de tiempo de vuelo 3D y de radar. Luego, giroscopios, acelerómetros y codificadores podrían medir la distancia que ha recorrido el AMR desde su ubicación original.

Para diseñar para evitar colisiones, es importante conocer las características del objeto (material, forma, color) y si es un objeto estático (por ejemplo, una pared o un estante) o un objeto dinámico (como otro robot).

Si es un objeto estático, el robot debe adquirir esa información mientras mapea el área para que pueda planear evitar el objeto con anticipación. Si se trata de un objeto dinámico, la fusión de datos provenientes de diferentes sensores en tiempo real podría detectar la distancia del objeto, su dimensión y su velocidad, implementando así la prevención activa de colisiones.

La fusión de sensores aborda estos desafíos superando las limitaciones individuales de las tecnologías de sensores individuales. Por ejemplo, el radar y el LiDAR son buenos para medir distancias con alta precisión y exactitud, funcionan en condiciones de poca luz y no se ven afectados por las condiciones climáticas.

Por otro lado, las cámaras, como nuestros ojos, son buenas para clasificar objetos y distinguir formas y colores, pero tienen un rendimiento limitado en condiciones ambientales, lo que en última instancia conduce a una baja visibilidad. Solo mediante el uso de diferentes tecnologías de sensores puede un AMR lograr un nivel de autonomía que le permita navegar de manera segura a través de cualquier entorno, incluso en entornos desconocidos para él.

Texas Instruments (TI) puede proporcionar todo, desde los sensores hasta los procesadores necesarios para la fusión de sensores AMR con una cartera que abarca toda la cadena de señales robóticas.

La cartera de sensores de la empresa abarca desde soluciones discretas hasta soluciones altamente integradas para implementar la fusión de sensores. Por ejemplo, los sensores de onda milimétrica (mmWave) TI de un solo chip de nivel 2 de integridad de seguridad 60 de 77 y XNUMX GHz integran un procesador de señal digital, un microcontrolador y una interfaz de alta frecuencia y generan valores medidos para la distancia, la velocidad y el ángulo de incidencia de los objetos en el campo de visión de un AMR.

La implementación de un escáner de área de seguridad con el sensor permite al robot detectar y localizar objetos en tres dimensiones. Más allá de la detección de un humano, el AMR también puede determinar la dirección de viaje y la velocidad de ese humano. Con esta información, el robot puede definir un área de seguridad a su alrededor y ajustar dinámicamente su velocidad, dependiendo de qué tan cerca esté el humano.

La combinación de una cámara con un sensor TI mmWave, como ejemplo, permite al AMR obtener información adicional sobre las características de un objeto que no sería posible con un solo sensor. Por supuesto, la fusión del radar y la cámara trae desafíos adicionales al sistema, tales como:

  • Es posible calibrar cámaras con rutinas de calibración OpenCV y el algoritmo de captura de tablero de ajedrez mientras se calibran radares con reflectores de esquina.
  • Sincronización de datos. Lograr el procesamiento paralelo de un flujo de datos entrante requiere una sincronización de tiempo entre el radar y la cámara.
  • Alineación de datos espaciales. A medida que se calculan los datos, comienza el proceso de superposición de imágenes provenientes de diferentes sensores y puntos de vista.
  • Reconocimiento y clasificación de objetos. Después de realizar la alineación espacial, la agrupación y la clasificación, los datos permitirán el reconocimiento y la clasificación de objetos.

El procesador TI Jacinto acelera la fusión del sensor capturando todos los datos del sensor, procesando los datos e interpretando las mediciones para controlar el AMR. El kit de desarrollo de software de Jacinto tiene herramientas que incluyen marcos de código abierto de aprendizaje profundo como TensorFlow Lite, así como un kit de herramientas de percepción y visión por computadora que aborda algunos de los desafíos mencionados anteriormente, incluida la clasificación de imágenes, la detección de objetos y la semántica. segmentación.

La fusión de sensores debe implementarse dentro de un entorno de sistema operativo de robot que permita el uso de dispositivos sensores como nodos del sistema, fusionando y probando los dispositivos sensores en consecuencia para resolver los desafíos discutidos en el documento.

La fusión de sensores debe ocurrir en tiempo real, especialmente si el AMR está colaborando con humanos, porque el robot debe confiar en los datos provenientes de los sensores para asegurarse de que no dañe a ningún humano cercano mientras sigue realizando tareas. Llevar el flujo de datos desde el nodo del sensor al cerebro del robot con una interfaz de comunicación de alta velocidad es imprescindible para una respuesta en tiempo real, de modo que el AMR pueda reaccionar rápidamente en función de las entradas del sensor.

Los datos adquiridos de los sensores también pueden ayudar a construir mejores modelos de aprendizaje automático e inteligencia artificial en los que los robots confían para volverse autónomos, tomar decisiones en tiempo real y navegar en entornos dinámicos del mundo real.

A pesar de los muchos desafíos que conlleva la fusión de sensores, esta tecnología representa un paso importante en robótica para pasar de vehículos guiados a vehículos totalmente autónomos que finalmente permitirán la convivencia entre humanos y robots y harán el trabajo más eficiente y rentable.

Acerca del autor.

Giovanni Campanella es gerente general de sector en Texas Instruments, y se especializa en automatización de edificios, automatización minorista y pagos y electrodomésticos. Giovanni lidera un equipo que ayuda a resolver los desafíos de diseño de los clientes a nivel mundial. Tiene una amplia experiencia en tecnologías analógicas y de detección, así como fuertes habilidades analíticas e interpersonales combinadas con una actitud práctica. Giovanni tiene una licenciatura en ingeniería electrónica y de telecomunicaciones de la Universidad de Bolonia y una maestría en ingeniería electrónica de la Universidad Politécnica de Turín.

acerca de Texas Instruments