Under säkerhetsjätten Check Points konferens CPX 360 som går av stapeln just nu som ett hybridevenemang i en rad europeiska storstäder var en av punkterna som belystes de nya AI-baserade chattrobotarna, som Chat GPT.
Även om alla är överens om att det här är imponerande verktyg så var det särskilt riskerna som påtalades i en paneldiskussion som anordnades i Stockholm. Det finns risker med själva innehållet, som till exempel att den allra största delen av träningsdata matades in i september 2021.
Men det finns också integritetsrisker, med de nya data som görs tillgängliga för modellen. I panelen framkom exempel på hur Chat GPT försett användaren med telefonnummer och kontaktuppgifter till andra människor, konfidentiella företagsdata och patientuppgifter som lagts in i motorn, och som den sedan tränats på.
Det är alldeles för enkelt att importera data som inte är menade att vara offentliga, var en av slutsatserna.
Chat GTP kräver expertövervakning
Gera Dorfman, som är chef över Check Points nätverkssäkerhet, och som är på plats i Stockholm under eventet, sade i paneldiskussionen att säkerhetsutvecklare mycket väl kan använda Chat GPT i sitt arbete, men för enklare uppgifter – så att de själva kan fokusera på det som är mer komplext.
– Det är ett fantastiskt verktyg, om man ber den skriva kod gör den det väldigt bra. Men du måste själv vara expert om du ber den göra det. Du måste som utvecklare kunna förstå vad det är Chat GPT gör, så att den till exempel inte smyger in skadlig kod i det du ber den göra.
Mats Ekdahl, säkerhetsexpert på Check Point i Sverige, påpekar att det kommer allt fler liknande AI-verktyg, också i Sverige där AI Sweden utvecklar en modell.
– Det kommer fler och fler, och man måste vara vaksam när man använder dem. Det är svårt för användarna att förstå vem som ligger bakom den här specifika botten. Vem kontrollerar input och vem verifierar output? Om du inte själv har kompetens får du svårt att validera om information är korrekt eller inte.
Kan användas även av kriminella
En annan risk som Mats Ekdahl pekar och som följer med de nya AI-verktygen är att de öppnar upp för ”gemene man” att använda dem på ett skadligt sätt.
– Som med all ny teknik så innebär den möjligheter för alla om den används på rätt sätt. Sedan finns det alltid de som tänker tvärtom, och då är det klart att det blir ett hot.
– Du behöver inte ens kunna skriva kod, men om du stoppar in input i Chat GPT kan du få tillbaka väldigt kompetent phishing-information, så att du kan stjäla information från någon annan eller skriva mer avancerad skadlig kod. Med den här typen av verktyg öppnas det där upp för betydligt fler, inte bara för de cyberkriminella.
Gör ni i säkerhetsbranschen något särskilt på teknikfronten för att bemöta de här riskerna?
– Tekniken vi utvecklar i dag handlar ju om att upptäcka det som är skadligt, sedan om det har byggts av användare eller bottar spelar inte så stor roll i det sammanhanget. Men sedan kan man ju spekulera i om det ökar som en följd av den här typen av verktyg.