AI 신경망 내부에 악성코드 숨기기

업데이트: 27년 2021월 XNUMX일
AI 신경망 내부에 악성코드 숨기기

코넬 대학의 XNUMX명의 연구원이 AI 신경망 내부에 악성 코드를 숨길 수 있다는 사실을 발견했습니다. Zhi Wang, Chaoge Liu 및 Xiang Cui는 arXiv 사전 인쇄 서버의 신경망에 코드를 주입하는 실험을 설명하는 논문을 게시했습니다.

컴퓨터로 technology 데이터를 파괴하거나 암호화하고 사용자에게 반환에 대한 대가를 요구하는 등 자신의 목적을 위해 신기술을 실행하는 시스템에 침입하려는 범죄자의 시도도 점점 더 복잡해지고 있습니다. 이 새로운 연구에서 팀은 인공 지능 애플리케이션을 실행하는 특정 종류의 컴퓨터 시스템을 감염시키는 새로운 방법을 발견했습니다.

AI 시스템은 인간의 두뇌와 유사한 방식으로 데이터를 처리하여 작업을 수행합니다. 그러나 이러한 네트워크는 외부 코드의 침투에 취약하다는 XNUMX명의 연구 결과가 나왔습니다.

신경망은 본질적으로 외부 에이전트의 침입을 받을 수 있습니다. 그러한 에이전트가 해야 할 일은 인간 두뇌에 기억이 추가되는 것과 거의 같은 방식으로 네트워크의 구조를 모방하는 것입니다. 연구원들은 AI 시스템을 실행하는 하드웨어에서 36.9MiB의 메모리 공간을 차지하는 상당히 무거움에도 불구하고 AlexNet이라는 AI 시스템 뒤에 있는 신경망에 멀웨어를 내장함으로써 이를 수행할 수 있음을 발견했습니다. 신경망에 코드를 추가하기 위해 연구원들은 주입에 가장 적합한 레이어를 선택했습니다. 그들은 또한 이미 훈련된 모델에 이를 추가했지만 해커는 전체 네트워크에 미치는 영향이 적기 때문에 훈련되지 않은 네트워크를 공격하는 것을 선호할 수 있다고 지적했습니다.

연구원들은 표준 바이러스 백신 소프트웨어가 맬웨어를 찾지 못했을 뿐만 아니라 감염된 후에도 AI 시스템 성능이 거의 동일하다는 것을 발견했습니다. 따라서 은밀하게 실행되면 감염이 감지되지 않을 수 있습니다.

연구원들은 단순히 신경망에 맬웨어를 추가해도 해를 끼치지 않는다는 점에 주목합니다. 코드를 시스템에 삽입한 사람은 여전히 ​​해당 코드를 실행할 방법을 찾아야 합니다. 그들은 또한 해커가 AI 신경망에 코드를 주입할 수 있다는 사실이 알려졌습니다. 네트워크, 바이러스 백신 소프트웨어를 업데이트하여 찾을 수 있습니다.