Azures kraftfull infrastruktur för AI som Open AI kunnat utnyttja för att träna Chat GPT på allt större modeller har gjort det möjligt att i nästa steg kunna ”låsa upp” AI-funktionerna förklarar Scott Guthrie, chef för Microsofts moln- och AI-verksamhet, i ett blogginlägg.
Enligt vad han uppgivit för Bloomberg har Microsoft lagt hundratals miljoner dollar, flera miljarder kronor, på att bygga upp den superdator som driver utvecklingen av Chat GPT och Bing. Superdatorn består av tusentals sammankopplade grafikprocessorer från Nvidia på molnplattformen Azure.
Och den infrastrukturen fortsätter att byggas på och ska bli ännu kraftfullare för att kunna träna ännu mer komplexa och större AI-modeller.
Eric Boyd, som ansvarar för Azure AI, säger i blogginlägget att man förstod att det krävdes kluster för speciella ändamål med fokus på att möjliggöra stora träningsarbetsbelastningar och att samarbetet med Open AI var ett tidigt bevis för det
– Vi arbetade nära tillsammans med dem för att lära oss vad som är de viktigaste sakerna som de letade efter när de byggde upp sina utbildningsmiljöer och vad som var de viktigaste sakerna som de behöver, säger han.