Microsoft og Oracle har i et stykke tid haft en alliance, som omhandler Oracle Database Services på Oracle Cloud Infrastructure til Microsoft Azure.
Nu har de to allierede i cloudbranchen igen indgået en aftale, og denne gang er OpenAI med på hjul.
En af de primære grunde til OpenAI’s fremdrift er, at Microsoft har sat computing-kraft og cloudinfrastruktur i Azure til rådighed for OpenAI.
Selv for Microsoft er det dog en krævende opgave at have kapacitet nok til at løfte AI-byrden. Blandt andet derfor har Microsoft den seneste tid investeret milliarder i byggerier af nye datacentre samt udvidelser af datacentre.
Alene i de sidste par måneder, har Microsoft annonceret milliardinvesteringer i Sverige, Tyskland, Spanien, Frankrig og flere endnu.
Men datacentre tager lang tid at bygge, og derfor kan lidt ekstra kapacitet være nødvendigt – og det har Microsoft og OpenAI nu fundet hos Oracle.
OpenAI skal nemlig fremover også bruge Oracles cloudinfrastruktur som kapacitet.
Oracle, Microsoft og OpenAl indgår en konkret aftale om at udvide Microsoft Azure Al-platformen til Oracle Cloud Infrastructure (OCI) for at give yderligere kapacitet til OpenAl.
"Vi er glade for at arbejde sammen med Microsoft og Oracle. OCI vil udvide Azures platform og gøre det muligt for OpenAI at fortsætte med at skalere,” udtaler Sam Altman, CEO for OpenAI, i en meddelelse.
Hos Oracles formand og CTO, Larry Ellison, hersker der glæde over at være med i den nye aftale.
"Kapløbet om at bygge verdens største store sprogmodel er i gang, og det fremmer ubegrænset efterspørgsel efter Oracles Gen2 AI-infrastruktur," siger han og fortsætter:
"Ledere som OpenAI vælger OCI, fordi det er verdens hurtigste og mest omkostningseffektive AI-infrastruktur."
OpenAI tilslutter sig derved flere andre spillere på AI-markedet, som bruger OCI. Det gælder blandt andet Adept, Modal, MosaicML, NVIDIA, Reka, Suno, Together AI, Twelve Labs, xAI og flere andre.
I forhold til kapacitet og træning af sprogmodeller kan OCI Supercluster skalere op til 64k NVIDIA Blackwell GPU'er eller GB200 Grace Blackwell Superchips forbundet med ultra-lav-latency RDMA-klyngenetværk og et valg af HPC-lagring.
OCI's NVIDIA GPU-instanser kan drive applikationer til generativ AI, computervision, naturlig sprogbehandling, anbefalingssystemer og mere.