Företagens dataoceaner växer. Data strömmar in via webben, i form av besök, loggar, sociala medieinlägg och också bilder och video.

Fram till 2020, spås mängden lagrade data öka 44 gånger om, jämfört med år 2009, till 35 biljoner gigabyte. Redan i fjol fanns tillräckligt mycket data i världen för att trava dvd-skivor från jorden till månen och tillbaka, 38 000 mil i vardera riktningen.

Större delen av alla data är ostrukturerade, vilket betyder att de inte kan lagras i vanliga databaser. Därför har de inte varit möjliga att analysera med hjälp av traditionella beslutsstödsverktyg, som hämtar sina data ur databaser, informationslager och affärssystem.
Men med hjälp av nya verktyg kan dessa vildvuxna data analyseras och det öppnar en guldgruva för affärsutvecklare, marknadsansvariga och säljare. Trenden, ”big data” innebär att stora datamängder analyseras med hjälp av ”djuphavsborrar”, som kan plöja igenom allt: klick, sökningar, sociala mediedata, videofiler och annat.

Först med den nya typen av affärsanalyser var webbjättar som Facebook och Yahoo. De utnyttjar tekniken för att analysera klickströmmar, ovärderligt för ett företag som vill utforma nya tjänster eller rikta onlinannonser till olika målgrupper.

För att det ska handla om ”stora data” krävs tre saker: data ska ha en varierad form, allt från affärstransaktioner till inlägg på Twitter och webbklick. Datamängderna ska vara stora och de ska kräva bearbetning i snabba, högpresterande system.

Nu händer två saker som gör att trenden sprids vidare. De komplicerade verktygen börjar anta en form som gör att de blir allt mer tillgängliga för affärsanvändare. Samtidigt rasar priserna på den hårdvara som systemen körs på.

– Tidigare krävdes stora superdatorer med mängder av sammanlänkade processorer, som kostade hundratusentals kronor. Nu kan samma typer av analyser genomföras med hjälp av vanlig hårdvara. Det betyder att vi inte bara kan genomföra nya analyser på helt nya sätt utan också till en kostnad som är betydligt lägre än tidigare, säger Carl Olofson, som är analytiker på IDC.

Fortfarande ligger företagen på internet, från webbaserade tjänster till sociala medier, längst framme.

– Men i dag flyttar analyserna ut från webben till i stort sett alla typer av företag som arbetar med stora datamängder, säger Marcus Collins, analytiker på Gartner.

Finansjättar, banker, energiföretag och nationella säkerhetstjänster hoppar på trenden.

– Orsaken är att de inser att mycket mer av deras värdeerbjudande bygger på information än vad de tidigare har antagit. Därför ökar analyserna snabbt i omfattning, säger Carl Olofson.

Bank of America, som är en av världens största banker, är ett av de företag som använder sig av tekniken för att hitta nya affärsmöjligheter.

– Banker vill alltid försöka eliminera olika former av bedrägerier. Med hjälp av affärsanalyser av stora datamängder kan jag bygga en modell som går igenom varenda förekomst av bedrägerier fem år tillbaka i tiden, för varenda användare. Annars skulle jag behöva göra stickprovskontroller, där alla inser att det finns avvikelser som förstör hela modellen som därefter måste göras om, säger Abhishek Mehta, tidigare chef för affärsanalyser på Bank of America

Enligt honom kommer ”big data” få lika stor påverkan på företagen som Linux.

– Vi har alla sett vad Linux befann sig för 20 år sedan och vad det har gjort med företagens system. Det har ändrat alla spelregler och samma sak sker även här, säger han.

Fakta

För att det ska handla om "stora data" krävs tre saker.

1. Datan ska ha en varierad form, allt från affärstransaktioner till inlägg på Twitter och webbklick.
2. Datamängderna ska vara stora.
3. Datan ska kräva bearbetning i snabba, högpresterande system.

Enligt analysinstitutet The Data Warehousing Institute planerar 45 procent av företagen att införa beslutsstöd med hjälp av stora data för att fatta bättre affärsbeslut.

Trenden har även fått flera leverantörer att satsa, däribland Teradata, Microsoft, Greenplum, Netezza och SAP.