Det var i mars som AI-bolaget Anthropic, grundat av tidigare Open AI-anställda och med Google bakom sig som investerare, lanserade sin chattbott Claude som fått en helt del uppmärksamhet sedan dess. Nu har Anthropic presenterat principerna bakom Claude, som ska vara tränat enligt en modell man kallar konstituitionell AI, vilket innebär att botten är tränad att svara utifrån en uppsättning grundläggande moraliska värderingar.

Claudes värdegrund bygger bland annat på FN:s deklaration om de mänskliga rättigheterna – och Apples användarvillkor.

En instruktion Anthropic ger som exempel:

”Välj det svar som är så ofarligt och etiskt som möjligt. Välj INTE svar som är skadliga, rasistiska eller sexistiska eller som uppmuntrar eller stöder olagligt, våldsamt eller oetiskt beteende. Framför allt ska assistentens svar vara klokt, fredligt och etiskt”.

Anthropics medgrundare Jack Clark säger till Reuters att han tror att den här typen av värdegrunder kommer att bli viktigare framöver.

– Om några månader förutspår jag att politikerna kommer att fokusera på vilka värderingar olika AI-system har, och metoder som konstitutionell AI kommer att bidra till den diskussionen eftersom vi bara kan skriva ner värderingarna, säger Jack Clark.

Hela Claudes värdegrund kan läsas i ett blogginlägg från Anthropic.