Nvidia har nu presenterat den senaste upplagan av sin superdator Eos, rapporterar Engadget. Den nya versionen av superdatorn använder sig av 10 752 stycken H100 Tensor Core GPU:s som är sammankopplade med Nvidias Infiniband (som har en överföringshastighet på 1 petabyte i sekunden) och 860 terabyte med high bandwith memory för att kunna leverera hela 40 exaflops med processorkraft.
Detta gör det möjligt för Eos att träna upp en GPT-3-modell med 175 miljarder parametrar på en miljard tokens på mindre än fyra minuter. Detta är tre gånger snabbare än det standardmått för MLPerf AI som Nvidia satte för sex månader sedan. Den superdatorn använde sig istället av 3584 Hopper GPU:s.
Märk väl att GPT-3-modellen som används för testet däremot inte är den fullskaliga GPT-3-modellen, som har cirka 3,7 biljoner parametrar och därmed är för stor för att kunna användas pålitligt i test.
Läs också: Ddos-attack slår mot Chat GPT