Il nuovo algoritmo aiuta i veicoli autonomi a ritrovarsi, estate o inverno

Aggiornamento: 9 dicembre 2023

Senza GPS, i sistemi autonomi si perdono facilmente. Ora un nuovo algoritmo sviluppato al Caltech consente ai sistemi autonomi di riconoscere dove si trovano semplicemente guardando il terreno intorno a loro e, per la prima volta, il la tecnologia funziona indipendentemente dai cambiamenti stagionali su quel terreno.

Il processo generale, noto come relativo al terreno visivo navigazione (VTRN), è stato sviluppato per la prima volta negli anni '1960. Confrontando il terreno vicino con le immagini satellitari ad alta risoluzione, i sistemi autonomi possono localizzarsi.

Il problema è che, per funzionare, l'attuale generazione di VTRN richiede che il terreno che sta guardando corrisponda strettamente alle immagini nel suo database. Tutto ciò che altera o oscura il terreno, come il manto nevoso o le foglie cadute, fa sì che le immagini non corrispondano e intasino il sistema. Quindi, a meno che non ci sia un database delle immagini del paesaggio in ogni condizione immaginabile, i sistemi VTRN possono essere facilmente confusi.

Per superare questa sfida, un team del laboratorio di Soon-Jo Chung, Bren Professor di Aerospace and Control and Dynamical Systems e ricercatore presso JPL, che Caltech gestisce per la NASA, si è rivolto al deep learning e all'intelligenza artificiale (AI) per rimuovere contenuto che ostacola gli attuali sistemi VTRN.

“La regola generale è che entrambe le immagini, quella del satellite e quella del veicolo autonomo, devono avere lo stesso contenuto affinché le tecniche attuali funzionino. Le differenze che possono gestire riguardano ciò che può essere realizzato con un filtro Instagram che cambia le tonalità di un'immagine", afferma Anthony Fragoso (MS '14, Ph.D. '18), docente e scienziato del personale e autore principale di Science Carta robotica. "Nei sistemi reali, tuttavia, le cose cambiano drasticamente in base alla stagione perché le immagini non contengono più gli stessi oggetti e non possono essere confrontate direttamente".

Il processo, sviluppato da Chung e Fragoso in collaborazione con lo studente laureato Connor Lee (BS '17, MS '19) e lo studente universitario Austin McCoy, utilizza ciò che è noto come "apprendimento auto-supervisionato". Mentre la maggior parte delle strategie di visione artificiale si basa su annotatori umani che curano con cura grandi set di dati per insegnare a un algoritmo come riconoscere ciò che sta vedendo, questo invece consente all'algoritmo di insegnare da solo. L'intelligenza artificiale cerca modelli nelle immagini rilevando dettagli e caratteristiche che probabilmente mancherebbero agli umani.

Integrando l'attuale generazione di VTRN con il nuovo sistema si ottiene una localizzazione più accurata: in un esperimento, i ricercatori hanno tentato di localizzare le immagini del fogliame estivo rispetto alle immagini del fogliame invernale utilizzando una tecnica VTRN basata sulla correlazione. Hanno scoperto che le prestazioni non erano migliori di un lancio di una moneta, con il 50 percento dei tentativi che causavano errori di navigazione. Al contrario, l'inserimento del nuovo algoritmo nel VTRN ha funzionato molto meglio: il 92 percento dei tentativi è stato abbinato correttamente e il restante 8 percento potrebbe essere identificato in anticipo come problematico e quindi facilmente gestito utilizzando altre tecniche di navigazione consolidate.

"I computer possono trovare schemi oscuri che i nostri occhi non possono vedere e possono rilevare anche la più piccola tendenza", afferma Lee. VTRN correva il rischio di trasformarsi in una tecnologia irrealizzabile in ambienti comuni ma impegnativi, afferma. "Abbiamo salvato decenni di lavoro per risolvere questo problema".

Oltre all'utilità per i droni autonomi sulla Terra, il sistema ha anche applicazioni per le missioni spaziali. Il sistema di ingresso, discesa e atterraggio (EDL) sulla missione rover Perseverance Mars 2020 del JPL, ad esempio, ha utilizzato VTRN per la prima volta sul Pianeta Rosso per atterrare al cratere Jezero, un sito che in precedenza era considerato troppo pericoloso per un sicuro iscrizione. Con i rover come Perseverance, "è necessaria una certa quantità di guida autonoma", afferma Chung, "poiché le trasmissioni impiegano sette minuti per viaggiare tra la Terra e Marte, e non c'è GPS su Marte." Il team ha preso in considerazione le regioni polari marziane che hanno anche intensi cambiamenti stagionali, condizioni simili alla Terra, e il nuovo sistema potrebbe consentire una migliore navigazione per supportare obiettivi scientifici inclusa la ricerca dell'acqua.

Successivamente, Fragoso, Lee e Chung amplieranno la tecnologia per tenere conto anche dei cambiamenti del tempo: nebbia, pioggia, neve e così via. In caso di successo, il loro lavoro potrebbe contribuire a migliorare i sistemi di navigazione per le auto senza conducente.