En ny attack kallad för promptinjicering kan göra så att Open AI:s språkmodell GPT-3 kan ignorera order och istället utföra de order som anfallaren ber om, rapporterar The Register.
GPT-3 är ett applikationsprogrammeringsgränssnitt för att skriva kod, meddelanden, artiklar, med mera, med hjälp av artificiell intelligens.
Eftersom GPT-3 inte är designat för att använda formell grammatik, likt ett programmeringsspråk, är det också svårare att avgöra när något språkmodellen gör beror på en attack.
Twitter-användare ska tidigare attackerat GPT-3-boten Remoteli.io, som är till för att underlätta distansarbete, och bland annat fått den att säga att Biden-administartionen borde störtas om den inte stödjer distansarbete. Boten har sedan dess tagits ner.