Molnmarknaden har varit präglad av mognad ett bra tag.
Rangordningen för molninfrastruktur har varit relativt stabil, med AWS på cirka 33 procents marknadsandel, Microsoft Azure på andra plats med 22 procent och Google Cloud på en avlägsen tredjeplats med 11 procent. (IBM, Oracle och Salesforce ligger i intervallet 2-3 procent).
Omsättningstillväxten är fortsatt solid i hela branschen, men avtar något, och ingen av de tre stora överträffar de andra tillräckligt för att maktbalansen ska förändras väsentligt. Den övergripande stabiliteten på marknaden har även påverkat priserna, som med vissa undantag har varit relativt oförändrade. Och vid det här laget har marknaden utvecklats till en punkt där de stora aktörerna alla har liknande erbjudanden.
Men framväxten av generativ AI förändrar allt.
Den frenesi som skapades av Open AI:s Chat GPT har utlöst en kapprustning bland de stora leverantörerna som vill differentiera sig genom att utveckla sina egna stora språkmodeller (LLM), bygga plattformar som gör det möjligt för företag att skapa generativa AI-applikationer och integrera generativ AI i sina portföljer av tjänsteerbjudanden.
David Linthicum, expert på molntjänster, förklarar:
– Det som händer är att molnleverantörerna närmar sig en mättnad när det gäller vilka tjänster de kan erbjuda i förhållande till sina konkurrenter. Därför kommer dessa tjänster att börja bli standardiserade, och eftersom multicloud är så populärt kommer kärntjänster som lagring och databehandling att vara i stort sett desamma från moln till moln.
Han tillägger:
– Detta ligger bakom molnleverantörernas satsning på generativ AI. Det är en tävling om vem som äger det här utrymmet och förmågan att göra sina tjänster mer kommersiella med hjälp av den här nya tekniken som läggs ovanpå mer traditionella molntjänster.
I det här tidiga skedet av AI-rallyt finns det ingen tydlig ledare, men alla aktörer satsar resurser i kampen.
Microsoft, som finansierade Open AI med 10 miljarder dollar, har byggt in Chat GPT-funktioner i allt från produktivitetsappar som Word och Excel, till webbläsaren Edge och molntjänsten Azure OpenAI Service, som riktar sig till företag.
Google är i full färd med att bygga ut sin generativ AI-plattform, och medgrundarna Sergey Brin och Larry Page har till och med kommit tillbaka från sin deltidspension för att dra igång Googles AI-initiativ. Google har en egen stor språkmodell som kallas Palm, bygger sina egna AI-chipp (Tensor Processing Units) och lanserar nya branschspecifika AI-baserade tjänster under Vertex AI-namnet. Senast lanserade företaget generativ AI-baserade tjänster som riktar sig till organisationer inom hälsovård och life science.
AWS lanserade nyligen Bedrock, en helt managerad tjänst som gör det möjligt för programvaruutvecklare att integrera generativ AI-funktionalitet i sina program. AWS tillverkar också sina egna billiga AI-chipp (Inferentia och Trainium) i begränsade volymer; företaget använder chippen internt för att driva sina generativ AI-funktioner, och de gör chippen tillgängliga för kunder.
Generativ AI är visserligen den hetaste trenden på molnmarknaden, men det finns andra som cio:er måste vara medvetna om. Här är de viktigaste trenderna på molnmarknaden och hur de påverkar cio:ernas molnstrategier:
Guldrush för AI – men oklarhet om kostnaderna
”Det är AI:s år”, förklarar Forrester Research. ”Varje hyperscaler, saas-leverantör och startup hoppas kunna dra nytta av det stora intresset för AI. Molnleverantörer satsar på AI-tjänster för att bryta sig ur den tröga intäktstillväxten och särskilja sig från konkurrenterna. Företagens molnkunder är angelägna om att använda AI så mycket som möjligt för strategiska initiativ, men utan att spräcka it-budgetar som redan är under press på grund av multicloud-komplexitet och spretighet.
De tre stora molnjättarna är inte de enda som erbjuder generativ AI-baserade molntjänster till företagens it-avdelningar. IBM är på gång med sin Open Stack-baserade Watsonx AI-plattform. Och Nvidia, som förser alla med de allra flesta av sina generativ AI-chipp, har byggt sin egen fullstack-molnplattform som heter DGX Cloud, en AI-tjänst som finns i Oracles moln och som snart kommer att finnas tillgänglig på både Azure och Google Cloud.
För cio:er innebär detta att det kommer att finnas flera molnbaserade alternativ för att bygga in generativ AI-funktionalitet i befintliga affärsprocesser, och för att skapa nya AI-baserade applikationer.
Enligt Bernard Golden, teknisk rådgivare på VMware, är utmaningen att se till att känsliga företagsdata skyddas och inte hamnar i den allmänna pool som LLM-databaserna utgör.
Linthicum tillägger att generativa AI-baserade appar kommer att vara ”kostsamma att köra”, så ”cio:er måste hitta rätt användningsområden för den här tekniken.”
Och för cio:er som vill få ut det mesta av AI-funktionerna som är inbyggda i de molnerbjudanden de är beroende av, har de första förklaringarna till hur prissättningen kommer att fungera varit ganska otydliga.
Prishöjningar i molnet
IBM väckte stor uppståndelse nyligen när man aviserade prisökningar på lagringstjänster på upp till 26 procent, samt mindre prisökningar på iaas- och paas-tjänster.
Generellt sett har dock molnleverantörerna hållit igen på prisökningarna för att förbli konkurrenskraftiga. Men den avtagande tillväxten i hela branschen kommer sannolikt att sätta press på alla molnleverantörer att höja priserna framöver. Som Linthicum säger:
– Vi är på väg in i en teknisk fas där de behöver få ut värde av sina investeringar. Jag skulle tro att priserna kommer att stiga under de kommande åren.
Fördelen med att använda molntjänster är naturligtvis att kunderna kan välja den infrastrukturkonfiguration som passar deras behov. Om de väljer en första generationens processor finns det värden att hämta. Men för organisationer som behöver avancerade beräkningar, eller organisationer som vill dra nytta av AI, är det dyrare att välja en nyare chippmodell.
Om du till exempel väljer att köra din arbetsbelastning på ett Nvidia H100-chipp jämfört med en tidigare A100-modell kommer det att resultera i en prisökning på mer än 220 procent, säger Drew Bixby, chef för drift och produkt på Liftr Insights.
Och när molnjättarna lägger till fler GPU:er (som är exponentiellt dyrare än traditionella processorer) till mixen i sina egna datacenter kommer dessa kostnader sannolikt att föras vidare till företagskunderna.
Branschmoln är mogna för generativ AI
Branschspecifika moln är på frammarsch – och kommer att gynnas av framväxten av generativ AI, säger Brian Campbell, chef på Deloitte Consulting, som förklarar att branschmoln ”tenderar att ligga i topp på både affärs- och teknikchefernas agendor”.
Teknikchefer gillar den snabbhet, flexibilitet och effektivitet som branschspecifika moln ger, och företagsledare uppskattar möjligheten att fokusera knappa interna resurser på områden som gör det möjligt för dem att differentiera sin verksamhet. Tidiga användare av branschmoln var hälso-, bank- och teknikföretag, men det har utvidgats till energi, tillverkning, offentlig sektor och media.
Campbell tillägger:
– Med den senaste tidens explosion av generativ AI tittar chefer alltmer på hur man kan använda det utöver proof-of-concept, och vänder sig därför till de stora leverantörerna av branschmoln, hyperscalers, oberoende programvaruleverantörer och systemintegratörer som snabbt har integrerat generativ AI tillsammans med annan teknik i sina erbjudanden.
Gränsen mellan moln och on-prem suddas ut
Det gamla paradigmet med en tydlig skiljelinje mellan moln och on-prem existerar inte längre. Det finns många termer som passar in på detta fenomen med molntjänster som används i en mängd olika scenarier samtidigt – hybridmoln, privata moln, multicloud, edge computing eller som IDC definierar det, dedikerad molninfrastruktur som en tjänst (dcIaas.)
Chris Kanaracus, analytiker på IDC, säger:
– Vi ser alltmer att molnet inte handlar om en viss plats, utan snarare om en allmän driftsmodell för it. Du kan ha molnet var som helst när det gäller attribut som skalbarhet, elasticitet, konsumtionsbaserad prissättning och så vidare. Utmaningen för cio:er framöver är att sy ihop allt detta i en miljö med blandade leverantörer.
AWS erbjuder till exempel Outposts, en managerad tjänst som gör det möjligt för kunder att köra AWS-tjänster lokalt eller ute vid kanten. Microsoft erbjuder en liknande tjänst som kallas Microsoft Azure Stack. Traditionella hårdvaruleverantörer har också as-a-service-erbjudanden som kan köras i datacenter eller vid kanten: Dell Apex och HPE GreenLake.
Ökad interoperabilitet
Konkurrerande molnleverantörer är inte särskilt motiverade att möjliggöra interoperabilitet. Affärsmodellen för molnleverantörer är att låsa in en kund, få dem att vänja sig vid just den leverantörens verktyg, processer, marknadsplatser, programutvecklingsplattformar och så vidare, och fortsätta att uppmuntra kunden att flytta fler resurser till deras moln.
Men företagskunderna har till överväldigande del valt en multicloud-strategi och molnleverantörerna har tvingats förhålla sig till den verkligheten.
Till exempel lanserade Microsoft och Oracle nyligen Oracle Database@Azure, som gör det möjligt för kunderna att köra Oracles databastjänster på Oracle Cloud Infrastructure (OCI) och distribuera dem i Microsoft Azure-datacenter.
Och lagringsföretaget Netapp presenterade nyligen en helt managerad tjänst som gör det möjligt för kunder att sömlöst föra över affärskritiska arbetsbelastningar i både Windows- och Linux-miljöer till Google Cloud utan att refaktorisera kod eller omforma processer.
När dessa hinder för interoperabilitet undanröjs kommer företagen att dra nytta av att kunna flytta lagringsvolymer och applikationer till den lämpligaste molnplattformen.
Medborgarutvecklaren på frammarsch
Det har alltid funnits en spänning mellan traditionell it och så kallad skugg-it. Framväxten av lösningar med low-code och no-code har gjort det lättare för andra än it-personal att bygga enkla applikationer. Microsofts Power Platform gör det till exempel möjligt att skapa mobil- och webbappar som kan interagera med affärsverktyg.
Men Chat GPT har gjort alla tekniska begränsningar överflödiga. Med Microsofts Copilot kan slutanvändarna till exempel skriva innehåll och skapa kod med en enkel prompt. För it-chefer kan detta vara ett tveeggat svärd. Det är bra för organisationen om medarbetarna kan öka sin produktivitet genom att skapa nya verktyg och program.
Men Golden påpekar att verktyg som Copilot är ”bra tills de inte är bra”. Med andra ord kan dessa enkla engångsapplikationer som skapas av medborgarutvecklare skapa säkerhetsrisker, de är inte byggda för att skala och de samverkar inte nödvändigtvis med komplexa affärsprocesser.
Finops får draghjälp och verktyg
Under pandemin flyttade många företag arbetsbelastningar till molnet för att göra dem mer lättillgängliga för distansarbetare.
– Nu är det de som får de stora räkningarna, säger Linthicum.
Som en följd av detta använder organisationer finopsteknik för att hantera och optimera molnkostnaderna. Linthicum säger att finops gör det möjligt för organisationer att minska den tekniska skulden och ”göra större kostnadsbesparingar genom att normalisera användningen av molnresurser. I grund och botten åtgärdar det misstag som gjorts tidigare, till exempel användning av fel molntjänster, för mycket datarörelser och så vidare.”
Analytikerna på Forrester håller med och konstaterar att ”när det blåser ekonomisk motvind får it-kostnadsoptimeringen ny fart. När det gäller hantering av molnkostnader var intresset stort under 2018 och återigen i år.”
De goda nyheterna för it-avdelningen är att alla molnleverantörer erbjuder finopstjänster och att det finns en rad tredjepartsleverantörer av programvara som erbjuder verktyg för hantering av molnkostnader.