En oväntad konsekvens av SAPs minnesdatabas Hana är att den ger en ordentlig boost för vissa utvecklingsprojekt. Även driften påverkas positivt.
Bland de många fördelar SAP framhåller för företagets minnesdatabas Hana är inte snabb utveckling den mest självklara. Tvärtom är det kanske enklare att tänka sig att en ny typ av databasteknik innebär merarbete för utvecklare i vissa lägen. Det beror bland annat på att delar av program som utnyttjar databaser behöver skrivas om för att utnyttja minnestekniken.
Men i vissa typer av utvecklingsprojekt, där det krävs många överföringar av stora datamängder, glöder minnesdatabaser. Det gäller typiskt beslutsstöd och dataanalys som inbegriper stora datamängder.
Bland case som SAP nämner märks Honeywell Aerospace som rapporterar att tiden för att skapa en ny rapport minskat från sex månader till två veckor med Hana.
Öltillverkaren Molson Coors berättar att administrationsbehovet för driften av beslutsstödslösningar minskat med 20 procent. Företaget har även tagit fram 23 olika scenarier för att utnyttja Hana med företagets stora affärssystem.
Fördelen för minnesdatabaser är uppenbar: Eftersom alla analyser kan göras direkt på data som lagras på sin ursprungliga plats, även i transaktionsdatabaser, så försvinner behovet av att överföra data. Det gäller såväl under utveckling som vid drift av färdiga lösningar.
Det blir kanske mer kännbart under utvecklingsfasen, som ofta inbegriper upprepade dataöverföringar beroende på att felaktiga antaganden och felaktiga lösningar upptäcks och behöver åtgärdas.
SAPs lösningsspecialist Niklas Packendorff beskriver fördelarna genom att räkna upp de steg som krävs i ett typiskt projekt baserat på en traditionell, diskbaserad databas.
Först ska data överföras från en transaktionsdatabas (till exempel kopplad till ett affärssystem) till en databas där den kan kontrolleras och ”tvättas”. Mellanstationen kallas ofta för ”operational data store”.
Den så kallade tvättningen går till exempel ut på radera felaktiga uppgifter och att formatera data från olika källor som gäller samma sak på ett likformigt sätt. Den här processen kallas för etl (extract, transform, load).
Nästa steg är att föra över tvättade data till ett datalager. Väl där ska data indexeras och i stort sett alltid ska summeringar, aggregat, beräknas.
Det är ofta på summeringar analyser genomförs. Indexering och aggregering innebär inte att grunddata behöver överföras igen, men alla tvättade data behöver gås igenom och resultaten, indexen och aggregaten, innebär att mer data behöver skrivas på disk.
Slutligen behöver data i vissa fall överföras till en beräkningsmotor, för att avancerade beräkningar ska kunna slutföras.
Med en minnesdatabas som Hana uteblir dataöverföringar. Lägg till det att indexering och aggregering i många fall blir överflödiga. Det är förklaringen till de tidsbesparingar SAP citerar.
Niklas Packendorff på SAP berättar om kunder som räknat hem Hanaprojekt med uteblivna kostnader för databaslicenser. Eftersom data inte behöver överföras mellan olika databaser behövs inte lika många databaslicenser. Även mängden data som behöver hanteras minskar, vilket leder till lägre kostnader.