Sensor fusion: la chiave per ottenere un'autonomia ottimale nella robotica

Aggiornamento: 5 novembre 2021

Immagina di camminare in una zona a te sconosciuta, con gli occhi bendati. Le probabilità di colpire qualcosa sono molto alte. Ed è esattamente ciò che i robot dovrebbero affrontare se non fossero dotati di sensori. Usando sensore fusion consente di raccogliere dati dai diversi sensori per consentire ai robot di navigare in sicurezza in qualsiasi ambiente.

I robot devono navigare in ambienti a loro sconosciuti ma a cui devono reagire e adattarsi rilevando oggetti, classificandoli e infine evitandoli. Inoltre, il robot deve anche mappare l'area su cui sta attraversando, identificando cancelli, scogliere o corridoi, ad esempio, e coesistere in sicurezza con altri esseri umani e robot.

Guardando in particolare ai robot mobili autonomi (AMR), ci sono tre sfide che i progettisti devono risolvere per ottenere una navigazione efficace e autonoma:

  • Rilevamento sicuro della presenza umana. Facilitare la capacità di rilevare la presenza di esseri umani inizia con la definizione di un'area di sicurezza intorno al robot che lo farà fermare o eviterà una persona in prossimità di quell'area.
  • Mappatura e localizzazione. Il robot deve avere una mappa dell'ambiente in cui andrà ad operare, sapendo anche dove si trova in qualsiasi momento, in modo che possa tornare a un punto di partenza specificato o raggiungere una destinazione predefinita.
  • Prevenzione delle collisioni. L'AMR deve evitare gli oggetti che si trovano sul suo percorso e navigare attraverso corridoi o cancelli evitando qualsiasi tipo di ostacolo.

La fusione dei sensori rappresenta un passo importante nella robotica per passare da veicoli guidati a veicoli completamente autonomi che operano in sicurezza in qualsiasi ambiente. (Fonte: Texas Instruments Inc.)

È possibile affrontare queste sfide utilizzando diversi tipi di tecnologie di rilevamento che, se fuse insieme, conferiscono al robot un livello di autonomia che gli consente di lavorare in modo indipendente e sicuro in qualsiasi ambiente.

LiDAR e radar sono le tecnologie più popolari utilizzate per creare una bolla di sicurezza attorno agli AMR in modo che possano rilevare la presenza di esseri umani.

Ma qual è il sensore migliore? la tecnologia affrontare la mappatura e la localizzazione degli interni? Considerando un ambiente sconosciuto, l’AMR dovrebbe creare una mappa dinamica misurando la posizione degli oggetti o delle strutture più vicini con sensori ultrasonici, LiDAR, tempo di volo 3D e radar. Quindi giroscopi, accelerometri ed encoder potrebbero misurare la distanza percorsa dall’AMR dalla sua posizione originale.

Per progettare in modo da evitare collisioni, è importante conoscere le caratteristiche dell'oggetto (materiale, forma, colore) e se si tratta di un oggetto statico (ad esempio una parete o una mensola) o un oggetto dinamico (ad esempio un altro robot).

Se si tratta di un oggetto statico, il robot deve acquisire tali informazioni durante la mappatura dell'area in modo da poter pianificare in anticipo l'evitamento dell'oggetto. Se si tratta di un oggetto dinamico, la fusione dei dati provenienti da diversi sensori in tempo reale potrebbe rilevare la distanza dall'oggetto, le sue dimensioni e la sua velocità, implementando così una prevenzione attiva delle collisioni.

La fusione dei sensori affronta queste sfide superando i limiti individuali delle singole tecnologie dei sensori. Ad esempio, radar e LiDAR sono in grado di misurare le distanze con elevata precisione e accuratezza, funzionano in condizioni di scarsa illuminazione e non sono influenzati dalle condizioni meteorologiche.

D'altra parte, le fotocamere, come i nostri occhi, sono brave a classificare gli oggetti e a distinguere forme e colori, ma hanno prestazioni limitate in condizioni ambientali, portando infine a una scarsa visibilità. Solo utilizzando diverse tecnologie di sensori un AMR può raggiungere un livello di autonomia che gli consentirà di navigare in sicurezza in qualsiasi ambiente, anche in ambienti a lui sconosciuti.

Texas Instruments (TI) è in grado di fornire tutto, dai sensori ai processori necessari per la fusione dei sensori AMR, con un portafoglio che copre l'intera catena del segnale robotico.

Il portafoglio di sensori dell'azienda spazia da soluzioni discrete a soluzioni altamente integrate per l'implementazione della fusione dei sensori. Ad esempio, i sensori a onde millimetriche (mmWave) TI a chip singolo a 2 e 60 GHz Safety Integrity Level 77 integrano un processore di segnale digitale, un microcontrollore e un front-end ad alta frequenza e generano valori misurati per la distanza, la velocità e angolo di incidenza degli oggetti nel campo visivo di un AMR.

L'implementazione di uno scanner dell'area di sicurezza con il sensore consente al robot di rilevare e localizzare oggetti in tre dimensioni. Oltre al rilevamento di un essere umano, l'AMR può anche determinare la direzione di marcia e la velocità di quell'essere umano. Con queste informazioni, il robot può definire un'area di sicurezza intorno a sé e regolare dinamicamente la sua velocità, a seconda di quanto è vicino l'essere umano.

La combinazione di una fotocamera con un sensore TI mmWave, ad esempio, consente all'AMR di ottenere informazioni aggiuntive sulle caratteristiche di un oggetto che non sarebbero possibili con un solo sensore. Naturalmente, la fusione di radar e telecamera introduce ulteriori sfide nel sistema, come ad esempio:

  • È possibile calibrare le telecamere con le routine di calibrazione OpenCV e l'algoritmo di acquisizione della scacchiera durante la calibrazione dei radar con riflettori angolari.
  • Sincronizzazione dei dati. Il raggiungimento dell'elaborazione parallela di un flusso di dati in ingresso richiede la sincronizzazione temporale tra il radar e la telecamera.
  • Allineamento dei dati spaziali. Man mano che i dati vengono calcolati, inizia il processo di sovrapposizione delle immagini provenienti da diversi sensori e punti di vista.
  • Riconoscimento e classificazione degli oggetti. Dopo aver eseguito l'allineamento spaziale, il raggruppamento e la classificazione, i dati consentiranno il riconoscimento e la classificazione degli oggetti.

Il processore TI Jacinto accelera la fusione dei sensori acquisendo tutti i dati del sensore, elaborando i dati e interpretando le misurazioni per controllare l'AMR. Il kit di sviluppo software Jacinto include strumenti che includono framework open source per l'apprendimento profondo come TensorFlow Lite, nonché un kit di strumenti di visione artificiale e percezione che affronta alcune delle sfide menzionate in precedenza, tra cui la classificazione delle immagini, il rilevamento degli oggetti e la semantica segmentazione.

La fusione dei sensori dovrebbe essere implementata all'interno di un ambiente di sistema operativo robotico che consenta l'uso di dispositivi sensori come nodi del sistema, fondendo e testando i dispositivi sensori di conseguenza per risolvere le sfide discusse nel documento.

La fusione dei sensori deve avvenire in tempo reale, soprattutto se l'AMR sta collaborando con gli esseri umani, perché il robot deve fare affidamento sui dati provenienti dai sensori per garantire che non danneggi alcun essere umano nelle vicinanze mentre continua a svolgere attività. Portare il flusso di dati dal nodo del sensore al cervello del robot con un'interfaccia di comunicazione ad alta velocità è un must per la risposta in tempo reale in modo che l'AMR possa reagire rapidamente in base agli input del sensore.

I dati acquisiti dai sensori possono anche aiutare a costruire migliori modelli di apprendimento automatico e intelligenza artificiale su cui i robot si affidano per diventare autonomi, prendere decisioni in tempo reale e navigare in ambienti dinamici del mondo reale.

Nonostante le numerose sfide che derivano dalla fusione dei sensori, questa tecnologia rappresenta un passo importante nella robotica per passare da veicoli guidati a veicoli completamente autonomi che consentiranno finalmente la coesistenza tra uomo e robot e renderanno il lavoro più efficiente e redditizio.

Circa l'autore

Giovanni Campanella è un direttore generale di settore presso Texas Instruments, specializzato in automazione degli edifici, automazione della vendita al dettaglio e pagamenti ed elettrodomestici. Giovanni guida un team che aiuta a risolvere le sfide di progettazione dei clienti su base mondiale. Ha una vasta esperienza nelle tecnologie analogiche e di rilevamento, nonché forti capacità analitiche e interpersonali combinate con un atteggiamento pratico. Giovanni ha conseguito una laurea in Ingegneria Elettronica e delle Telecomunicazioni presso l'Università di Bologna e un Master in Ingegneria Elettronica presso il Politecnico di Torino.

su Texas Instruments