Malware verbergen in neurale AI-netwerken

Update: 27 juli 2021
Malware verbergen in neurale AI-netwerken

Een drietal onderzoekers van de Cornell University heeft ontdekt dat het mogelijk is om malwarecode te verbergen in neurale AI-netwerken. Zhi Wang, Chaoge Liu en Xiang Cui hebben een paper gepost waarin ze hun experimenten beschrijven met het injecteren van code in neurale netwerken op de arXiv preprint-server.

Als computer technologie wordt steeds complexer, net als pogingen van criminelen om in te breken in machines waarop nieuwe technologie draait voor hun eigen doeleinden, zoals het vernietigen of versleutelen van gegevens en het eisen van betaling van gebruikers voor de teruggave ervan. In deze nieuwe studie heeft het team een ​​nieuwe manier gevonden om bepaalde soorten computersystemen waarop kunstmatige intelligentie-applicaties draaien te infecteren.

AI-systemen doen hun werk door gegevens te verwerken op een manier die vergelijkbaar is met het menselijk brein. Maar dergelijke netwerken, zo ontdekte het onderzoekstrio, zijn kwetsbaar voor infiltratie door buitenlandse code.

Neurale netwerken kunnen door hun aard worden binnengedrongen door buitenlandse agenten. Het enige dat dergelijke agenten hoeven te doen, is de structuur van het netwerk nabootsen op ongeveer dezelfde manier waarop herinneringen in het menselijk brein worden toegevoegd. De onderzoekers ontdekten dat ze precies dat konden doen door malware in te bedden in het neurale netwerk achter een AI-systeem genaamd AlexNet, hoewel het nogal fors is en 36.9 MiB geheugen in beslag neemt op de hardware waarop het AI-systeem draait. Om de code toe te voegen aan het neurale netwerk, kozen de onderzoekers wat volgens hen de beste laag voor injectie zou zijn. Ze voegden het ook toe aan een model dat al was getraind, maar merkten op dat hackers er de voorkeur aan zouden geven een ongetraind netwerk aan te vallen, omdat dit waarschijnlijk minder impact zou hebben op het totale netwerk.

De onderzoekers ontdekten dat niet alleen standaard antivirussoftware de malware niet kon vinden, maar dat de prestaties van het AI-systeem bijna hetzelfde waren na infectie. De infectie had dus onopgemerkt kunnen blijven als deze heimelijk was uitgevoerd.

De onderzoekers merken op dat het eenvoudigweg toevoegen van malware aan het neurale netwerk geen kwaad zou doen - wie de code ook in het systeem zou hebben geschoven, zou nog steeds een manier moeten vinden om die code uit te voeren. Ze merken ook op dat nu bekend is dat hackers code kunnen injecteren in AI neurale netwerken, antivirussoftware kan worden bijgewerkt om ernaar te zoeken.