En grupp forskare från University of California, Berkeley, MIT och Institute for Advanced Study har skrivit en ny avhandling med titeln Planting Undetectable Backdoors in Machine Learning Models.

Som namnet antyder handlar uppsatsen om hur det är möjligt att placera bakdörrar i modeller för maskininlärning utan att dessa kan upptäckas av utomstående.

Författarna ger ett exempel på hur tekniken skulle kunna missbrukas. Vi tänker oss att en bank anlitar maskininlärningsföretaget Snoogle för att enklare kunna avgöra vilka kunder som ska beviljas lån utifrån tillgänglig information. Då skulle Snoogle med hjälp av nämnda bakdörr kunna sälja en tjänst som garanterar att användarna i fråga skulle beviljas ett lån av banken.

– Baserat på våra bevis finns det inga praktiska (befintliga) eller teoretiska (framtida) analyser som kommer att upptäcka dessa bakdörrar såvida du inte knäcker krypteringen, säger Michael Kim från University of California, Berkeley i en kommentar som citeras av The Register.