I juni lanserade den nyzeeländska snabbköpskedjan Pak'nSave botten Savey Meal-Bot, ett AI-verktyg som låter användarna ladda upp en lista med ingredienser som de har, och sedan kommer boten med recept som de kan prova. Det marknadsfördes som ett sätt för kunderna att spara pengar eftersom landets invånare slänger mat för omkring 10 000 kronor varje år.

Trots en varning om att användarna måste vara över 18 år, att inga människor granskade recepten och att endast matvaror skulle matas in i chattboten, gick folk överstyr och i augusti blev företaget viralt i hela världen av helt fel anledningar.

Meal-Bot föreslog till exempel att en användare skulle göra ”blekmedelsinfuserad risöverraskning” som ett ”överraskande kulinariskt äventyr”. Det var illa nog, men dess ”aromatiska vattenblandning” var i själva verket ett recept på dödlig klorgas, även om Meal-Bot beskrev den som ”den perfekta alkoholfria drycken för att släcka din törst och fräscha upp dina sinnen”. Och ”mystisk köttgryta” innehöll 500 gram hackat människokött. Meal-bot beskrev den som ”en härligt mustig och tröstande rätt som kommer att överraska dig med sina magiska smaker.”

Det finns inga rapporter om att kunder skulle ha blivit förgiftade av dessa recept, och verktyget har sedan dess uppdaterats så att användarna bara kan välja bland en begränsad uppsättning fullt ätbara ingredienser. Men det skapar fortfarande oaptitliga kombinationer.

Advokatfirman Levidow, Levidow & Oberman råkade ut för en annan uppmärksammad pr-katastrof när två av deras advokater skickade in juridiska utlåtanden fyllda med falska citat och hänvisningar efter att de använt Chat GPT för att skriva argument.

Firman och dess advokater ”övergav sitt ansvar när de lämnade in obefintliga rättsliga utlåtanden och sedan fortsatte att stå fast vid de falska utlåtandena efter att rättsliga beslut ifrågasatte deras existens”, sade en domare i ett beslut i juni, som också innebar böter på 5.000 dollar.

PricewaterhouseCoopers, PWC, har arbetat med många företag för att hjälpa dem att komma igång med generativ AI-projekt. Men trots all hajp kring tekniken, eller till och med på grund av den, är det inte allt som går smidigt.

– Generativ AI är helt enkelt mer långtgående än traditionell AI eller maskininlärning, så möjligheterna till katastrofer har ökat, säger Bret Greenstein, partner och chef för go-to-market-strategin för generativ AI på PWC.

Bristande styrning

Ett problem som kan uppstå med generativ AI är när projekt lanseras med otillräcklig styrning eller tillsyn. Pak'nSaves Savey Meal-Bot var ett offentligt exempel på detta, men många fler företag gör liknande misstag internt.

Bret Greenstein berättar till exempel att han har arbetat med ett medelstort finansinstitut som implementerade generativ AI för fem månader sedan med hjälp av en privat molninstans av ett kommersiellt AI-verktyg.

– Sedan öppnade de upp API:et för att låta sina affärsanvändare bygga sina egna applikationer.

En av de första sakerna de byggde var en chattbot för HR, som gav rekommendationer om förmåner som i onödan utsatte dem för ett omfattande ekonomiskt ansvar. Om HR-verktyget rekommenderade fel alternativ kunde en anställd till exempel missa förmånsfönstret under ett helt år. Folk blev upprörda, men de antog att eftersom det var ett auktoritativt verktyg så var det faktiskt korrekt.

Bret Greenstein rekommenderar inte att företag öppnar upp API:er och bara låter människor bygga vad de vill. Det måste finnas en genomtänkt, disciplinerad strategi med viss styrning.

– Det finns disciplinerade sätt att bygga generativ AI som bedömer noggrannhet, hanterar partiskhet och hanterar hallucinationer – och du behöver en människa i loopen för att se till att den rekommenderar rätt saker.

Företaget hade haft chattboten igång i en månad och feedbacken var inte bra, så lyckligtvis upptäcktes det tillräckligt tidigt för att inte påverka de anställda allvarligt, men det skakade om förtroendet för ledarskapet. Om företaget å andra sidan överkorrigerar och drar ner på generativ AI kan det missa en möjlighet där konkurrenterna hoppar in och går snabbare fram.

Enligt en undersökning från AI Infrastructure Alliance (AIIA) som publicerades i juli bland mer än 1 000 ledande befattningshavare på stora företag säger 54 procent att de har lidit förluster på grund av att de inte har lyckats styra AI- eller ML-applikationer, och 63 procent säger att deras förluster var 50 miljoner dollar eller högre.

Skenande kostnader

De mest populära AI-chattbotarna är gratis för allmänheten. Med lite experimenterande är det billigt och enkelt att hitta applikationer som kan ge affärsfördelar, vilket skapar en falsk uppfattning om värdet. Och när företag sätter upp pilotprojekt i hårt kontrollerade miljöer är det också lätt att underskatta de kostnader som kommer att uppstå när projektet lanseras på bred front.

Detsamma gäller när ett företag anlitar en extern leverantör för projektet, säger Rob Lee, chefsutbildare och fakultetsledare vid SANS Institute, eftersom ingen ännu har erfarenhet av att implementera gen AI i stor skala.

– De har inte fått hård hud än. Om du har gjort det här tidigare och kan förutsäga kostnaderna exakt är du mycket efterfrågad just nu.

Om AI till exempel distribueras via molnet blir varje API-anrop dyrare, och användningen kommer att vara svår att förutsäga.

– Man kan inte förutsäga mänskligt beteende baserat på hur det gamla systemet fungerade. Ingen vet vilket mänskligt beteende som gen-AI kommer att generera, säger Rob Lee.

Sedan finns det övergångskostnader. Om du till exempel behöver köpa ett nytt hus måste du sälja ditt nuvarande hus, men om det gamla huset inte säljs så snabbt som förväntat kan du bli tvungen att betala för två hus samtidigt. Samma sak gäller inom it.

– Kommer vi att ha råd med det om övergången tar längre tid än vi trodde? När det gäller gen-AI kan ingen förutsäga det exakt, eftersom tekniken är så ny.

– Sedan tillkommer storleken på dataunderlaget. Jag måste betala för lagringen och för anropen till den lagringen. Och för vissa tillämpningar måste man ha lagringsutrymme över hela världen, liksom säkerhetskopior, säger Rob Lee.

Enligt AIIA:s undersökning var kostnaden det näst största hindret för stora företag att införa AI.

Orealistiska förväntningar

På grund av all hajp kring generativ AI kan vissa företagsledare börja se det som en mirakelkur. Alla offentliga diskussioner om att AI är på väg att få liv hjälper inte, säger Amol Ajgaonkar, cto för produktinnovation på Insight, en Arizona-baserad lösningsintegratör.

– En del av detta sipprar in i beslutsfattandet, säger han.

Under sommaren ville till exempel en global elektroniktillverkare och distributör baserad i västra USA bygga ett system för innehållsgenerering, särskilt för att skapa prisdokument för kunderna.

– De har mer än 8 000 säljchefer med kundkontakt som hanterar tiotusentals konton. Prissättning av produkter och tjänster är ett ständigt behov för att skapa arbetsbeskrivningar för nya projekt. Innehållsgenerering är ett enkelt användningsfall för generativ AI.

Men företaget trodde att AI:n skulle kunna titta på historiska data, hitta relevanta exempel från det förflutna och sedan tillämpa dem på nya kundförfrågningar.

– Förväntningen var att den generativa AI:n bara skulle räkna ut det. Jag ger den historiska priser, den tar en titt på dem och berättar sedan för mig vad priserna kommer att bli för liknande saker, säger Amol Ajgaonkar.

Att försöka förklara för företaget hur generativ AI faktiskt fungerade var dock en ständig kamp, säger han.

– Allt de läste slog tillbaka på oss. Deras uppfattning var att arbetsinsatsen var minimal och att affärsnyttan var stor. Hajpen säger hur enkelt det är. Men det är inte så det fungerar.

Med ett sådant tankesätt riskerar företaget att bli besviket och misslyckas med sina projekt, och kanske till och med att förlora tron på fördelarna med AI i allmänhet.

Lösningen, menar Amol Ajgaonkar, är att dela upp projektet i små steg och analysera det bästa sättet att genomföra vart och ett av dem. Ofta kommer generativ AI inte att vara en bra lösning. Att söka igenom historiska dokument för att hitta relevanta fall kan till exempel göras mer effektivt med traditionella metoder, säger han, även om sammanfattning av dokument är något som generativ AI är bra på.

Under tiden bör avancerad analys och ML-modeller användas för att förutsäga framtiden, och att ta reda på hur man sätter ihop alla delar till ett enda förslag hanteras bäst med affärslogik som kan specificera vilka tjänster som ska ingå. Det finns också de matematiska beräkningarna. Det är inte bara överdrivet utan också otroligt felaktigt att försöka använda gen AI för att göra enkla matematiska beräkningar.

– Vi kan skriva ett plugin för att göra beräkningarna. Vi förlitar oss inte på att den generativa AI:n ska beräkna saker, säger Amol Ajgaonkar.

Sedan är det dags att sammanställa det slutliga dokumentet. Vissa avsnitt kommer från juristerna och ändras aldrig.

– Det är de vanliga sakerna. Och när det gäller sammanfattningen kan den generativa AI:n lägga till den."

I slutändan kunde elektronikföretaget få en lösning som avsevärt minskade den tid som behövdes för att skriva arbetsbeskrivningarna, säger han. Men det krävdes en del utbildning för att komma till den punkten. Utan utbildningen skulle projektet ha blivit en stor besvikelse.

En annan sak som företag ofta inte förstår är att skriva en gen AI prompt inte är som att ge instruktioner till en annan vuxen människa, tillägger han.

– Det är som att ge mina tonårsbarn instruktioner. Ibland måste man upprepa sig så att det fastnar. Ibland lyssnar AI:n, och ibland följer den inte instruktionerna. Det är nästan som ett annat språk. När man ska operationalisera något är förståelsen för dessa småsaker en stor del av projektets framgång.

Det finns också sätt att förbättra kvaliteten på svaren, till exempel med hjälp av tankestrukturer och liknande metoder, men det krävs flera prompter för att förfina svaret.

– De är okej när man bara forskar. Men när du faktiskt kör i produktion tänker du på kostnader. Varje ord du trycker in räknas mot din kvot. Hur många tokens du förbrukar avgör kostnaden för plattformen, säger Amol Ajgaonkar.

Dessutom tillkommer den tid det tar att besvara varje fråga.

– Om du för varje förfrågan måste använda tankens träd-metoden och be om förklaringar blir det väldigt dyrt. Om jag fick en blank check skulle jag köra samma fråga tusen gånger i olika varianter för att få exakt det resultat jag vill ha. Men behövs det för det värde det tillför? Det är den balansgången som måste göras när man bygger lösningen.

Problem med data

Carm Taglienti, ingenjör på Insight, stötte också nyligen på ett projekt där orealistiska förväntningar nästan sänkte ett AI-projekt.

– Att AI-projekt misslyckas handlar till 99 procent om förväntningar. Det handlar inte om att tekniken inte fungerar, utan om förväntningarna på vad människor tror att tekniken kan göra, säger han.

I det här specifika fallet ville en kund, ett stort USA-baserat chipptillverkningsföretag, använda AI för att lösa sina problem med leverantörskedjan. Företaget förväntade sig inte bara att AI skulle göra saker som den inte kunde göra, de förväntade sig också att saker och ting skulle fungera på första försöket.

Men varje gång ett projekt går från en fas till en annan finns det en god chans att det första tillvägagångssättet inte fungerar, så justeringar måste göras. Var och en av dessa punkter är en möjlighet för ett företag att ge upp ett AI-projekt, säger han. Men i det här specifika fallet fanns det också en teknisk fråga - brist på bra data.

Tidigare, när ett visst chipp eller en viss komponent inte fanns tillgänglig, använde företaget en arbetsintensiv, manuell process för att hitta en ersättare.

– Men det var inte tillräckligt smidigt för att de skulle kunna stödja sin verksamhet, säger han.

En del av processen kunde ersättas med beslutsträd och expertsystem, men dessa var sårbara. Om något förändrades i branschen skulle hela beslutsträdet behöva uppdateras. Att använda AI krävde dock en stor mängd rena data. Men den typ av uttömmande sökningar efter komponenter som skulle utgöra träningsdata var sällsynta.

– Man gör inte en konkurrensanalys varje gång, säger Carm Taglienti, och berättar chiptillverkaren höll sig till en lista över leverantörer som man föredrog och de bästa reservleverantörerna, och gjorde bara sällan storskaliga leverantörsgranskningar.

Ett annat problem var att de data som fanns tillgängliga var svåra att bearbeta.

– Om du är en tillverkare skapar du specifikationer. Men det var inte i ett format som man snabbt kunde ta till sig.

Sedan finns det mer nyanserade frågor, som var tillverkaren har sina anläggningar, och dess rykte om att leverera i tid.

– Jag måste till exempel söka på nätet och titta på deras årsredovisning om de är ett börsnoterat företag. Det är mycket mer än att bara säga att jag har hittat en komponent som fungerar, säger Carm Taglienti.

Den här typen av analys var möjlig att automatisera redan innan generativ AI kom, säger han, men det är en mycket mer komplex process än vad folk kanske antar i början. Och detta är inte ovanligt. Bristen på användbara data har länge varit ett problem för AI- och ML-projekt.

Även i AIIA-undersökningen var datafrågor en betydande utmaning för 84 procent av de företag som använde gen-AI. PWC:s Bret Greenstein arbetade till exempel nyligen med ett konsumentföretag som ville starta ett projekt för att automatisera backoffice-processer.

– De hade satt upp sina AI-tjänster. Deras moln var installerat. Deras medarbetare var redo. Men de hade inte räknat med hur svårt det var att få åtkomst till datan, säger Bret Greenstein.

En datakälla krävde API-licenser som företaget inte hade, så det skulle behöva gå igenom en upphandlingsprocess för att få dem, vilket kan ta månader.

– I ett annat system var åtkomstkontrollerna på en mycket hög nivå per organisation. Ett tredje system hade användarbaserade kontroller. För generativ AI var de tvungna att stämma av alla dessa, men de kunde inte göra det snabbt.

På lång sikt skulle företaget få alla data det behövde, säger han – men de skulle ha förlorat månader.

– I det här fallet ställde de om till andra användningsområden. Men ledningen förlorade tid och entusiasm. Alla de personer som var entusiastiska över de potentiella produktivitetsförbättringarna blev frustrerade, liksom it-teamen som inte hade tagit hänsyn till datagrejerna, vilket ledde till att ledningen tappade förtroendet för dem, säger Bret Greenstein.

Han menar att företag bör prioritera potentiella AI-användningsfall först efter påverkan, sedan efter risk och slutligen efter data:

– Har vi data för att göra det här use caset? Har vi tillstånd att använda dem? Är den tillgänglig? Är den tillräckligt ren för att vara användbar? Om vi inte kommer förbi det här steget börjar vi inte. Vi hittar ett annat use case.