När en grupp anställda på Samsung nyligen råkade dela med sig av känslig kod till Chat GPT – något som ledde till att den sydkoreanska elektronikjätten förbjöd de anställda att använda verktyget – så blixtbelystes ett växande säkerhetsproblem: Att anställda klipper och klistrar in känsliga företagsdata till de här AI-verktygen som dessa sedan tränas på och generöst kan dela med sig av till helt andra människor.
När Computer Sweden talar med cybersäkerhetsexperten Jonas Lejon, grundare av Triop, påtalar han att det finns risker med Chat GPT – precis som med andra verktyg som det går att klistra in kopierad information i. Det här är inget nytt fenomen, skillnaden är att det fått så stor uppmärksamhet i och med den snabba spridningen av just det här AI-verktyget.

Det som drabbade Samsung har vi sett många gånger tidigare tillägger han och det finns till och med forskningsuppsatser om hur man hämtar ut källdata från språkmodeller.
Att förbjuda användning är dock fel väg att gå, anser han.
– I morgon kommer ett nytt verktyg och andra problem. Det är svårt att hålla på och förbjuda. I stället måste man lära de anställda att använda verktygen på rätt sätt.
Tre metoder
Jonas Lejon säger att det finns tre sätt att minimera riskerna med användningen av de här verktygen: Utbildning, policys och tekniska verktyg.
Generellt tror han inte att det är så många organisationer som exempelvis har arbetat fram policys på det här området.
– När det gäller copy/paste är organisationer överlag ganska dåliga på det. Det handlar heller inte bara om Chat GPT, utan även om andra verktyg som Google Translate.
Jonas Lejon anser att de policys som företag nu eventuellt är i färd med att arbeta fram bör vara generella och inte riktade mot ett specifikt AI-verktyg utan snarare försöker få bukt med att anställda överhuvudtaget kopierar och klistrar in data i olika verktyg. Därefter får man gå igenom vilka avtal man har med leverantören av verktyget och hur dessa data skyddas.
Det finns också tekniska verktyg för att förhindra och detektera dataläckage.
För en it-säkerhetschef gäller det att förstå och hela tiden hålla sig uppdaterad om hur verktygen kan användas både offensivt och defensivt, fortsätter Jonas Lejon.
Lejon berättar att han nyligen höll ett föredrag hos den nationella samarbetsorganisationen inom säkerhet, Cybernoden, om just säkerhetsfrågor relaterade till Chat GPT.
– Det var några där som implementerat en policy om att man får använda verktyget inom sitt expertområde, det tycker jag är ganska bra. Då förstår de området och den output de får.
Gränserna suddas ut
En faktor som försvårar, säger Jonas Lejon, är att gränsen för vad som är molnet, internet och lokalt suddas ut. Många verktyg man tror är lokala har möjlighet att skicka ut information till molnet.
– Man måste se till helheten. När man tillhandahåller verktyg för sina anställda behöver man se till att användarna enkelt kan hitta information om hur man använder stavningskontroller, översättning eller vad det nu är för verktyg i det dagliga arbetet. Jag är inget fan av filter, utan tycker det är bättre med utbildning.
Hur vanligt är då problemet? Enligt en undersökning från säkerhetsleverantören Cyberhaven där de gått igenom data från sina produkter så hade 9,3 procent av alla anställda använt sig av Chat GPT på arbetsplatsen. 7,5 procent hade klistrat in företagsdata i modellen sedan start. Mätningen gjordes den 19 april.
Mest anmärkningsvärt är kanske att känsliga data utgör 11 procent av det som anställda klistrar in i Chat GPT. Då ska man ha i åtanke att användandet av Chat GPT är väldigt högt och växer exponentiellt, vilket gör att det här blir ganska stora mängder information, konstaterar säkerhetsföretaget.
Hjälp i säkerhetsarbetet
Men även om säkerhetsproblem relaterade till Chat GPT nu börjar diskuteras mer intensivt, så säger Jonas Lejon att verktyget också är en stor hjälp i säkerhetsarbetet och skyddet av systemen.
– Jag har väntat länge på defensiva verktyg och metoder som använder AI, nu kan jag se att det börjar komma. Där är det Chat GPT som varit en hjälp på traven.
– Det hjälper till på många sätt. Det går att snabba upp processer som varit manuella, granska kod, hitta skadlig kod och förstå vad den gör, identifiera brister i webbapplikationer. Sedan förekommer det att det blir fel, men jag anser ändå att fördelarna överstiger nackdelarna.
Jonas Lejon säger att han själv använder AI-verktyg dagligen på olika sätt, när han till exempel utvecklar verktyg. Han säger till AI:n att han vill ha ett visst verktyg och sedan måste man ”prata” och ställa frågor till det. Sedan använder han Github copilot för att gå igenom det.
– Men sedan måste man kontrollera så att det den föreslår ligger i linje med vad man själv tycker. Det händer att verktyget ger förslag som är heltokiga. Sedan gäller det naturligtvis att tänka igenom vad man delar för information med den.