En ny attack kallad för promptinjicering kan göra så att Open AI:s språkmodell GPT-3 kan ignorera order och istället utföra de order som anfallaren ber om, rapporterar The Register.

GPT-3 är ett applikationsprogrammeringsgränssnitt för att skriva kod, meddelanden, artiklar, med mera, med hjälp av artificiell intelligens.

Eftersom GPT-3 inte är designat för att använda formell grammatik, likt ett programmeringsspråk, är det också svårare att avgöra när något språkmodellen gör beror på en attack.

Twitter-användare ska tidigare attackerat GPT-3-boten Remoteli.io, som är till för att underlätta distansarbete, och bland annat fått den att säga att Biden-administartionen borde störtas om den inte stödjer distansarbete. Boten har sedan dess tagits ner.

Läs också: Därför kan du inte lita på programmering med AI