En grupp forskare vid Univeristy of the Chinese Academy of Sciences har lyckats bädda in och gömma skadlig kod direkt i de artificiella neuroner som utgör ett maskininlärningssystem, rapporterar Motherboard.

Forskarna kunde rentav bädda in den skadliga koden i så mycket som hälften av en AI-modells noder samtidigt som den kunde fortsätta fungera normalt.

Vissa av modellerna ska testats mot 58 vanliga antivirus-program utan att den skadliga koden upptäcktes. 

"I samband med att neurala nätverk blir mer vanligt förekommande så kommer den här metoden vara universell för att leverera skadeprogram i framtiden" skriver forskarna.

Forskarna hoppas nu att de scenarion de presenterat ska kunna användas som referens för att försvara neurala nätverk i framtiden.

Läs också: Fem impopulära beslut som varje it-chef måste fatta