Nvidia har i samband med Interspeech 2021-konferensen presenterat ny forskning och nya verktyg som kan användas för att få AI-röster att låta lite mer som mänskliga röster, rapporterar Engadget.

Nvidias text-till-tal-forskningsteam har då tagit fram en ny modell som de kallar för RAD-TTS och som låter en person träna upp en text-till-tal-modell med sin egen röst. Inkluderat saker som taltakt, tonalitet, röstklang med mera.

RAD-TTS har också ett verktyg för röstomvandling som kan användas för att låta inspelat tals levereras med en annan persons röst.

Nvidia har demonstrerat delar av tekniken i sin nya videoserie I AM AI.

Tekniken är tillgänglig via öppen källkod genom ”Nvidia NeMo Python toolkit for GPU accelerated conversational AI” som finns via företagets NGC-hubb.

Läs också: Ny plattform vill hjälpa kändisar klona sina röster med AI