Meta har nu presenterat sin AI-modell, Massive Multilingual Speech (MMS), som kan känna igen över 4000 talade språk och producera text-till-tal och tal-till-text för över 1100 av dem.
Företaget har tränat upp modellen med hjälp av offentliga ljudinspelningar av religiösa texter, så som Bibeln, som översatts till mängder av olika språk. Enligt Meta ska faktumet att datan hämtats in från religiösa texter inte gjort att AI-modellen dras till ett mer religiöst språk.
Företaget flaggar däremot för att modellen inte är perfekt och kan feltranskribera vissa ord och fraser, vilket kan producera felaktigt eller förargelseväckande språkbruk.
MMS görs tillgänglig som öppen källkod. Meta skriver att de hoppas att modellen ska kunna bidra till att bevara den språkmångfald som finns i världen.
Läs också: Open AI föreslår internationell tillsyn av AI – som med kärnkraft