Artificiell intelligens är hetare än någonsin, och någon AI-vinter ser inte ut att stå för dörren även om norra halvklotets befolkning är mitt uppe i säsongen. Tvärtom ser utvecklingen ut att accelerera och tekniken letar sig in inom allt fler områden.

Pengar öses över forskningsprojekt runt om i världen, Kina och USA slåss om att ligga i täten, men även här i Sverige satsas det friskt och har du AI på cv:t lär du inte gå arbetslös de kommande åren. Finansierade av Wallenbergstiftelsen har forskningsinitiativet WASP, med huvudsäte vid Linköpings universitet, en budget på 5,5 miljarder kronor och och det uttalade syftet att ta oss till täten inom området – per capita alltså.

– Vi satsar på grundforskning med stor relevans för tillämpningar. Det är viktigt för att vi ska utveckla djup kunskap inom de här områdena och en förutsättning för revolutionerande framsteg. Det kommer starkt att bidra till Sveriges ställning, säger Anders Ynnerman, professor i visualisering vid Linköpings universitet i Computer Swedens artikel från i höstas.

Regler och riktlinjer efterfrågas

Men med tekniker som maskininlärning och djupinlärning kommer också frågan om vad tekniken bör användas till, i vilka sammanhang, i vilken grad beslut ska få fattas av maskiner, och vilka konsekvenserna blir. Det saknas inte frågor och farhågor, men det tas också många initiativ till att räta ut frågetecknen. Det ropas på regelverk och riktlinjer.

Redan 2019 togs initiativ till att skapa övergripande etiska riktlinjer för AI inom EU. Initiativet är en del av EU:s generella satsning på AI, med en sammantagen budget på 20 miljarder kronor. EU-kommissionen har tagit fram sju ”nyckelkrav” som måste uppfyllas för att en AI ska ”gå att lita på”, exempelvis krav på mänskligt medverkan och tillsyn, robusthet och säkerhet och öppenhet.

Det saknas heller inte svenska initiativ på området. 2019 gick IT & Telekomföretagen, tillsammans med åtta svenska teknikföretag, ut med en plan om att ta fram en slags hederskodex för företag och personer involverade i utvecklingen av AI, och nu i höstas lyfte Sveriges Ingenjörer frågan i en debattartikel där förbundsordföranden Ulrika Lindstrand efterlyser en ”nationell etisk färdplan för ansvarsfull digital teknik och AI, i form av en överenskommelse mellan näringslivet, offentliga aktörer och anställda”.

”Det finns idag svenska myndigheter som använder AI för att fatta beslut. Det finns till och med exempel på beslut av kommuner om försörjningsstöd, utan medverkan av socialsekreterare. Medborgaren som starkt påverkas av beslutet har ingen möjlighet att få veta på vilka grunder det är fattat. Det finns även risker att systemet har förutfattade meningar om det tränat på ”fördomsfulla” data. Innan automatiska beslutssystem fullt ut används i praktiken behövs klarhet kring hur de fattar sina beslut och att olika intressen kan tillgodoses”, skriver Ulrika Lindstrand.

Att det finns fog för etikdiskussionen finns det många bevis för. Maskininlärning bygger på statistiska modeller utifrån historiska data, och dessa data är ”färgade” av mänsklig historia, missuppfattningar och fördomar, men också helt korrekta i många fall.

En AI kan presentera ett tekniskt korrekt svar, men som ändå blir fel eftersom svaret bygger på en statistiskt genomsnitt av en stor population, utan hänsyn till den individ för vilken systemet ska fatta ett beslut. Alla japaner gillar inte sushi, även om en stor majoritet gör det. Det korrekta AI-svaret att "japaner gillar sushi” är förvisso sant, men det behöver inte gälla Fru Nakamoto från Nagoya.

Perfekt ickeperfekta texter

En ständigt återkommande diskussion kring AI är det så kallade turingtestet. Det går i korthet ut på att en AI bedöms vara mänskligt intelligent om en testperson inte kan avgöra om den för ett samtal med en annan människa eller en maskin.

Frågan blev delvis aktualiserad under 2020 efter att den semikommersiella organisationen OpenAI lanserat den senaste versionen av deras AI för naturliga språk GPT-3. Det dröjde inte länge innan folk som testat systemet, som är tillgängligt genom ett api med begränsad åtkomst, började publicera texter tillskriva GPT-3.

De flesta hade nog väntat sig bra texter, men GPT-3 är så att säga omänskligt mänsklig i texternas språkliga kvalitéer. Digitala alster kan ofta med visst fog beskyllas för att vara ”för bra” i bemärkelsen att de är perfekta, digital musik till exempel, vilket gör att de känns onaturliga. Människan är som bekant inte perfekt, och det mänskliga ligger i till exempel en gitarrists ”fel” eller orenheter.

Men med GPT-3 har tekniken kommit så långt att systemet förstår att slumpa in ”fel” som gör sluresultatet bättre. GPT-3 kan till och med lägga sig till med stilistik och liknande mänskliga egenskaper som gör att texterna systemet producerar är allt annat är ”datortexter”, utan helt enkelt mänskliga och helt omöjliga att skilja från texter skrivna av människor.

I Techworlds artikel om GPT-3 från början av september säger Fredrik Heintz, biträdande professor inom artificiell intelligens och integrerade datorsystem (AIICS) på Linköpings universitet att ”det är uppenbart att man i dag kan skapa syntetiska texter som är oskiljaktiga från texter skapade av människor, och det gäller även tal och bild”.

”Texterna är väldigt trovärdiga, och det jag tycker är så intressant är att många texter också är kreativa. Det finns ett mått av kreativitet och mångsidighet i texterna som jag imponeras av. Annat jag blir imponerad av är att GPT-3 kan skapa programkod och finansiell information”.

Men Fredrik Heintz säger också att det är viktigt att komma ihåg att GPT-3 och dess likar är specialiserade AI-system som är bra på en specifik uppgift, de är långt ifrån generella AIs.

– Det man gjort på Open AI är egentligen ganska enkelt, nämligen att hitta samband mellan texter och underliggande mönster, och på så sätt kan man skapa intressanta texter, men detta är å andra sidan inte en AI som till exempel kan spela schack. Det här är en AI som är bra på att snacka skit.

Vilka jobb försvinner?

En annan etisk dimension kring AI är frågan om tekniken kommer ”ta jobben” från vissa yrkesgrupper eller till och med innebära undergången för hela branscher.

Det speciella med it-branschen ur detta perspektiv är att den både bidrar till AI-utvecklingen och -implementeringen, vilket skapar jobb i branschen, samtidigt som vissa yrkeskategorier i it-branschen själva kan drabbas av automatisering, robotisering och AI generellt.

För att ta reda på hur olika yrkesgrupper kan påverkas av teknikutvecklingen, där AI är en viktig del, har fackföreningen Unionen köpt in en, just det, AI som utifrån olika parametrar och indata levererar prognoser för framtiden. AI-systemet kallas Feathm och har utvecklats av ett australiensiskt företag med samma namn.

I artikeln ”Hur påverkas it-jobben av AI? Vi frågade en AI” tog Unionen fram en prognos för svenska it-branschen exklusivt för Computer Sweden. Resultatet var som förväntat blandat, och med ändå ganska milda konsekvenser av teknikutvecklingen jämfört med andra yrkesgruppen, just för att it-branschen i mångt och mycket står för teknikutvecklingen.

Nätverkstekniker bör se upp

Enligt Feathm och den så kallade scenariomodellen är det framför allt nätverkstekniker och systemtekniker som bör se upp i framtiden, vilket beror på att dessa funktioner låter sig automatiseras relativt enkelt. Ny mjukvara som i allt större utsträckning på egen hand kan konfigurera och testa nätverk gör att vissa arbetsuppgifter blir överflödiga.

Feathm räknar med att automatisering av olika arbetsuppgifter inom it-branschen kommer att motsvara 18 200 heltidstjänster. Av dessa är 12 600 män, medan 5 600 är kvinnor. Samtidigt förväntas branschen som helhet växa. Kompetensbristen är stor redan idag, och förväntas öka de kommande åren.

– It-branschen är lite speciell, eftersom branschen i sig driver teknikskiftet och många andra behöver ju tjänster från denna bransch. Inom it handlar det inte så mycket om att jobb försvinner, men de grupper som vi ser att det kan bli färre av är till exempel nätverkstekniker och vissa administratörer. De med låg automatiseringsrisk är kreativa yrken, och de som blir förstärkta av automatiseringen är till exempel dataanalytiker, sade Katarina Lundahl, chefsekonom på Unionen.

AI-tekniken är troligen bara i sin linda, vi kan sannolikt vänta oss mycket mer i framtiden. Och etikfrågor lär fortsättningsvis vara centrala. Vi kommer antagligen att få se etiska ramverk bli implementerade de kommande åren, kanske även i form av lagstiftning.

Läs också:
Hur påverkas it-jobben av AI? Vi frågade en AI
Nio framtidsjobb – här är rollerna som krävs i ett framgångsrikt AI-team