I en förlängning av sitt AI-partnerskap har Oracle och Microsoft tecknat ett flerårigt avtal för att stödja den växande efterfrågan på Bing konversationssökningar, som nyligen öppnades för allmänheten.

Som en del av avtalet kommer Microsoft att använda sin egen Azure-infrastruktur för AI i kombination med Oracle Cloud Infrastructure (OCI) Supercluster – en Nvidia gpu-stödd tränings- och inferenstjänst baserad på superdatorer som lanserades i mars.

OCI Supercluster-tjänsten är den första nivån i Oracles strategi för generativ AI och riktar sig till företag som Cohere eller Hugging Face, som arbetar med att utveckla stora språkmodeller (LLM) för att stödja sina slutanvändare.

Kombinationen av OCI Supercluster och Azure AI kommer att göra det möjligt för Microsoft att genomföra inferenser av AI-modeller som kontinuerligt optimeras för att driva Bing konversationssökningar varje dag, säger företagen i ett gemensamt uttalande.

Inferens är en process där ett AI-system drar slutsatser eller gör förutsägelser baserat på den information och kunskap det har.

”Genom att utnyttja Oracle Interconnect för Microsoft Azure kan Microsoft använda tjänster som Azure Kubernetes Service (AKS) för att orkestrera OCI Compute i massiv skala för att stödja den växande efterfrågan på Bings konversationssökning”, skriver företagen i ett pressmeddelande.

Enligt Oracle och Microsoft kräver inferensmodeller i allmänhet tusentals beräknings- och lagringsinstanser och tiotusentals gpu:er som kan arbeta parallellt som en enda superdator över ett multiterabitnätverk.

– Vårt samarbete med Oracle och användningen av Oracle Cloud Infrastructure tillsammans med vår Microsoft Azure AI-infrastruktur kommer att utöka kundtillgången och förbättra hastigheten på många av våra sökresultat, säger Divya Kumar, global marknadschef för Search & AI på Microsoft.