Nu pekar Googles vd Sundar Pichai i ett blogginlägg ut vilka principer som ska gälla för företagets utveckling av AI framåt. Vapen, övervakning i strid med internationella regler, saker som bryter mot internationell lag eller mänskliga rättigheter är inte sådant som Google ska syssla med – men det betyder inte att företaget stoppar allt samarbete med militären.

”Vi vill vara tydliga med att även om vi inte utvecklar AI för användning i vapen så kommer vi att fortsätta vårt arbete med regeringar och militär på många andra områden” skriver Sundar Pichai.

Blogginlägget kommer kort efter att Google aviserat att man ska dra sig ur ett samarbete med det amerikanska försvarsdepartementet Pentagon efter hård kritik både från de egna leden och från AI-forskare runtom i världen. I Pentagon-samarbetet, med namnet Project Maven, har artificiell intelligens använts för att tolka videobilder vilket kan användas för att förbättra precisionen i drönarattacker.

Läs också: AI-forskare protesterar mot Googles samarbete med Pentagon

En representant för Google, som dock vill vara anonym med anledning av den känsliga situationen, säger till Reuters att företaget inte skulle ha gått med i projektet förra året om de principer som nu redovisas i blogginlägget varit på plats redan då. Även om fokuset i projektet inte är offensivt ligger det för nära vapenområdet enligt källan.

Principerna ska ha tagits fram av en grupp på nio personer och beskrivs av Googlerepresentanten som en mall som en utvecklare kan använda direkt.

Men alla jublar inte över Googles mer restriktiva linje kring samarbete för militära ändamål. Pete King, republikansk kongressledamot i USA, twittrade att Googles beslut att inte förlänga drönarsamarbetet är ”ett nederlag för rikets säkerhet”.