Escondendo malware dentro de redes neurais de IA

Atualização: 27 de julho de 2021
Escondendo malware dentro de redes neurais de IA

Um trio de pesquisadores da Cornell University descobriu que é possível ocultar o código de malware dentro de redes neurais de IA. Zhi Wang, Chaoge Liu e Xiang Cui postaram um artigo descrevendo seus experimentos com injeção de código em redes neurais no servidor de pré-impressão arXiv.

Como computador tecnologia torna-se cada vez mais complexo, assim como as tentativas dos criminosos de invadir máquinas que executam novas tecnologias para os seus próprios fins, como destruir dados ou encriptá-los e exigir pagamento aos utilizadores pela sua devolução. Neste novo estudo, a equipe descobriu uma nova maneira de infectar certos tipos de sistemas de computador que executam aplicativos de inteligência artificial.

Os sistemas de IA fazem seu trabalho processando dados de maneira semelhante ao cérebro humano. Mas essas redes, descobriu o trio de pesquisa, são vulneráveis ​​à infiltração de código estrangeiro.

As redes neurais, por sua própria natureza, podem ser invadidas por agentes estrangeiros. Tudo o que esses agentes precisam fazer é imitar a estrutura da rede, da mesma forma que as memórias são adicionadas ao cérebro humano. Os pesquisadores descobriram que foram capazes de fazer exatamente isso incorporando malware à rede neural por trás de um sistema de IA chamado AlexNet - apesar de ser bastante robusto, ocupando 36.9 MiB de espaço de memória no hardware que executa o sistema de IA. Para adicionar o código à rede neural, os pesquisadores escolheram o que acreditavam ser a melhor camada para injeção. Eles também o adicionaram a um modelo que já havia sido treinado, mas observaram que os hackers podem preferir atacar uma rede não treinada porque provavelmente teria menos impacto na rede geral.

Os pesquisadores descobriram que não apenas o software antivírus padrão falhava em encontrar o malware, mas o desempenho do sistema de IA era quase o mesmo depois de ser infectado. Assim, a infecção poderia não ter sido detectada se executada secretamente.

Os pesquisadores observam que simplesmente adicionar malware à rede neural não causaria danos - quem quer que tenha inserido o código no sistema ainda terá que encontrar uma maneira de executar esse código. Eles também observam que agora que se sabe que os hackers podem injetar código em AI neural redes, o software antivírus pode ser atualizado para procurá-lo.