Fenomenet med deepfakes, alltså videofilmer där man med maskininlärning bytt ut ansiktet på en person, har gjort det svårare att urskilja vem som gör vad i en videofilm på nätet. Och många fruktar för att vi i framtiden inte kan lita på någon video vi ser.

Problemet kan dock ha fått sig en lösning, i alla fall temporärt. För nu har ett forskarlag vid Münchens tekniska universitet tagit fram algoritmen Xceptionnet som på ett exemplariskt sett ska kunna avläsa ifall en video manipulerats. Det skriver MIT:s tidskrift Technology Review.

Läs också: Deepfakes är det läskigaste på nätet just nu – och ett tydligt exempel på riskerna med AI

Xceptionnet har tränats upp till att genomskåda de två vanligaste metoderna som används vid skapandet av en deepfake. Något algoritmen lärt sig efter att ha studerat en databas med 1000 deepfakes och det originalmaterial som filmerna utgått ifrån.

Enligt forskarna finns det dock en risk att Xceptionnet blir ett tveeggat svärd, då metoden som avslöjar bluffen i slutändan kan användas för att ta fram ännu bättre deepfakes som kan kringgå algoritmen.

”Vi tror att det här samspelet mellan manipulering och detektering är ett extremt spännande område för uppföljningsarbete”, skriver forskarna i sin rapport.