Det brittiska artificiella intelligens-företaget Deepmind (som ägs av Googles moderbolag Alphabet) har nu publicerat tre nya studier gällande språkmodeller för AI. Med andra ord modeller som kan användas för att en AI exempelvis ska kunna kommunicera som en person i text.

Studierna visar att en språkmodell kan använda sig av ett externt minne, i form av en stor databas, lite som en fusklapp för att snabbt generera nya meningar. Resultatet är att det blir möjligt att ta fram neurala nätverk som är lika effektiva som neurala nätverk som är 25 gånger större, skriver MIT Technology Review. Något som i sin tur gör tekniken billigare att utveckla och tillgänglig för fler organisationer.

Deepmind kallar metoden för Retro, vilket står för Retro-Enhanced Transformer. Enligt forskarna ska metoden också göra det lättare att analysera vad en AI lärt sig, vilket kan förhindra saker som partiskhet. Både det neurala nätverket och databasen tränas upp samtidigt men databasen kan också uppdateras självständigt utan att det neurala nätverket behöver tränas om.

Läs också: Alphabet startar AI-företag som ska upptäcka läkemedel