Microsoft har släppt ett nytt verktyg i öppen källkod, Counterfit, som kan användas av utvecklare för att testa hur säkra deras AI-system är, rapporterar Zdnet.

"Det här verktyget föddes utifrån vårt eget behov av att utvärdera Microsofts AI-systems sårbarheter med målet att proaktivt säkra AI-tjänster", skriver Microsoft i ett blogginlägg.

Enligt en ny studie som Microsoft genomfört ska de flesta organisationer idag inte ha tillräckligt bra verktyg för att testa sina AI-programs säkerhet.

Counterfit kommer med flera förladdade attackalgoritmer och kan köras via Azure Shell från en webbläsare eller installeras lokalt i en Anaconda Python-miljö. Counterfit ska vara modell-agnostiskt och målet är att verktyget på sikt också ska bli data-agnostiskt så det kan användas för text, bilder, med mera.

Läs också: Experter varnar - EU:s nya AI-regler blir en tung börde för många företag