Novo algoritmo ajuda veículos autônomos a se encontrarem, verão ou inverno

Atualização: 9 de dezembro de 2023

Sem GPS, os sistemas autônomos se perdem facilmente. Agora, um novo algoritmo desenvolvido na Caltech permite que sistemas autônomos reconheçam onde estão simplesmente olhando para o terreno ao seu redor – e pela primeira vez, o tecnologia funciona independentemente das mudanças sazonais naquele terreno.

O processo geral, conhecido como visual relativo ao terreno navegação (VTRN), foi desenvolvido pela primeira vez na década de 1960. Ao comparar o terreno próximo com imagens de satélite de alta resolução, os sistemas autônomos podem se localizar.

O problema é que, para que funcione, a geração atual do VTRN exige que o terreno que está examinando corresponda de perto às imagens em seu banco de dados. Qualquer coisa que altere ou obscureça o terreno, como cobertura de neve ou folhas caídas, faz com que as imagens não correspondam e prejudique o sistema. Portanto, a menos que haja um banco de dados das imagens da paisagem em todas as condições concebíveis, os sistemas VTRN podem ser facilmente confundidos.

Para superar esse desafio, uma equipe do laboratório de Soon-Jo Chung, professor Bren de Aeroespacial e Controle e Sistemas Dinâmicos e cientista pesquisador do JPL, que Caltech gerencia para a NASA, se voltou para o aprendizado profundo e inteligência artificial (IA) para remover sazonalidade conteúdo que atrapalha os sistemas VTRN atuais.

“A regra é que ambas as imagens - a do satélite e a do veículo autônomo - devem ter conteúdo idêntico para que as técnicas atuais funcionem. As diferenças que eles podem lidar são sobre o que pode ser realizado com um filtro do Instagram que muda os matizes de uma imagem ”, diz Anthony Fragoso (MS '14, Ph.D. '18), conferencista e cientista da equipe e autor principal do Science Artigo de robótica. “Em sistemas reais, no entanto, as coisas mudam drasticamente com base na estação porque as imagens não contêm mais os mesmos objetos e não podem ser comparadas diretamente.”

O processo - desenvolvido por Chung e Fragoso em colaboração com o aluno de graduação Connor Lee (BS '17, MS '19) e o aluno de graduação Austin McCoy - usa o que é conhecido como "aprendizagem autossupervisionada". Enquanto a maioria das estratégias de visão computacional dependem de anotadores humanos que cuidam de grandes conjuntos de dados para ensinar um algoritmo a reconhecer o que está vendo, este permite que o algoritmo se auto-ensine. A IA procura padrões nas imagens, revelando detalhes e recursos que provavelmente seriam perdidos pelos humanos.

Complementar a geração atual de VTRN com o novo sistema produz uma localização mais precisa: em um experimento, os pesquisadores tentaram localizar imagens de folhagem de verão contra imagens de folhagem de inverno usando uma técnica VTRN baseada em correlação. Eles descobriram que o desempenho não era melhor do que um cara ou coroa, com 50 por cento das tentativas resultando em falhas de navegação. Em contraste, a inserção do novo algoritmo no VTRN funcionou muito melhor: 92 por cento das tentativas foram correspondidas corretamente e os 8 por cento restantes puderam ser identificados como problemáticos com antecedência e, então, facilmente gerenciados usando outras técnicas de navegação estabelecidas.

“Os computadores podem encontrar padrões obscuros que nossos olhos não podem ver e podem detectar até mesmo a menor tendência”, diz Lee. A VTRN corria o risco de se tornar uma tecnologia inviável em ambientes comuns, mas desafiadores, diz ele. “Resgatamos décadas de trabalho para resolver esse problema.”

Além da utilidade para drones autônomos na Terra, o sistema também possui aplicativos para missões espaciais. O sistema de entrada, descida e pouso (EDL) na missão do JPL Mars 2020 Perseverance rover, por exemplo, usou o VTRN pela primeira vez no Planeta Vermelho para pousar na cratera de Jezero, um local que antes era considerado muito perigoso para um cofre entrada. Com rovers como o Perseverance, "uma certa quantidade de direção autônoma é necessária", diz Chung, "uma vez que as transmissões levam sete minutos para viajar entre a Terra e Marte, e não há GPS em Marte." A equipe considerou as regiões polares de Marte que também têm mudanças sazonais intensas, condições semelhantes às da Terra, e o novo sistema poderia permitir uma navegação aprimorada para apoiar objetivos científicos, incluindo a busca por água.

Em seguida, Fragoso, Lee e Chung irão expandir a tecnologia para levar em conta as mudanças no clima: neblina, chuva, neve e assim por diante. Se tiver sucesso, seu trabalho pode ajudar a melhorar os sistemas de navegação para carros sem motorista.