Ända sedan generativ AI exploderade i det allmänna medvetandet med lanseringen av Chat GPT i slutet av förra året, har kraven på att reglera tekniken för att förhindra att den orsakar onödig skada ökat till febernivå runt om i världen. Insatserna är höga – så sent som härom veckan undertecknade branschledare ett öppet offentligt brev där de sa att om myndigheterna gör fel kan konsekvensen bli att mänskligheten utrotas.

Medan de flesta konsumenter bara roar sig med att testa gränserna för stora språkmodeller som Chat GPT, har ett antal oroande historier cirkulerat om att tekniken hittar på förmenta fakta (även känt som ”hallucinationer”) och ger olämpliga förslag till användare, som när en AI-driven version av Bing sa till en New York Times-reporter att skilja sig från sin maka.

Kunniga i it-branschen och juridiska experter pekar också på en rad andra problem, bland annat möjligheten att generativ AI kan förstärka hotaktörers attacker mot cybersäkerhetssystem, risken för brott mot upphovsrätt och dataskydd – eftersom stora språkmodeller tränas på alla typer av information – och risken för diskriminering när människor kodar in sina egna fördomar i algoritmerna.

Det kanske största orosmomentet är att generativa AI-program i princip är självlärande och uppvisar ökande kapacitet när de tar in data, och att deras skapare inte vet exakt vad som händer inom dem. Som Geoffrey Hinton, tidigare AI-chef på Google, har sagt kan detta innebära att mänskligheten kanske bara är en övergående fas i intelligensutvecklingen och att AI-system kan utveckla sina egna mål som människor inte vet något om.

Allt detta har fått regeringar runt om i världen att efterlysa regelverk för att säkra AI. Men som med de flesta teknikregleringar finns det sällan någon universallösning, och olika regeringar vill reglera generativ AI på det sätt som bäst passar deras eget politiska landskap.


Länderna skapar sina egna regler

– När det gäller tekniska frågor, även om varje land är fritt att skapa sina egna regler, har vi tidigare sett någon form av harmonisering mellan USA, EU och de flesta västländer, säger Sophie Goossens, delägare på advokatbyrån Reed Smith och specialiserad på frågor som rör AI, upphovsrätt och immateriella rättigheter.

– Det är sällsynt att se lagstiftning som helt motsäger någon annans lagstiftning.

Även om detaljerna i den lagstiftning som läggs fram av varje land kan skilja sig åt finns det ett övergripande tema som förenar alla regeringar som hittills har lagt fram förslag: hur fördelarna med AI kan realiseras samtidigt som de risker som den medför för samhället minimeras. Lagstiftare i EU och USA håller redan på att utforma en uppförandekod för AI för att överbrygga klyftan tills någon lagstiftning har antagits.

Generativ AI är ett samlingsnamn för alla typer av automatiserade processer som använder algoritmer för att producera, manipulera eller syntetisera data, ofta i form av bilder eller text som kan läsas av människor. Det kallas generativt eftersom det skapar något som inte fanns tidigare. Det är inte en ny teknik, och diskussionerna kring reglering är inte heller nya.

Generativ AI har förmodligen funnits (åtminstone i en mycket grundläggande form av chattbott) sedan mitten av 1960-talet, då en MIT-professor skapade Eliza, en applikation som var programmerad att använda mönstermatchning och språksubstitution för att ge svar som fick användarna att tro att de pratade med en terapeut. Men generativ AI:s senaste intåg i den offentliga domänen har gjort det möjligt för människor som kanske inte hade tillgång till tekniken tidigare att skapa sofistikerat innehåll om i stort sett alla ämnen, baserat på några grundläggande instruktioner.

I takt med att generativa AI-applikationer blir allt kraftfullare och vanligare ökar trycket på reglering.

– Risken är definitivt högre eftersom dessa företag nu har beslutat att släppa extremt kraftfulla verktyg på det öppna internet för alla att använda, och jag tror att det definitivt finns en risk att tekniken kan användas med dåliga uppsåt, säger Sophie Goossens.


Första stegen mot AI-lagstiftning

Även om EU-kommissionen började diskutera en AI-lagstiftning 2019 var den brittiska regeringen en av de första att berätta om sina avsikter och publicerade i mars i år en vitbok med fem principer som företagen ska följa: säkerhet, trygghet och robusthet; transparens och förklarbarhet; rättvisa; ansvarighet och styrning; samt överklagbarhet och rättelser.

I ett försök att undvika vad man kallar ”tungrodd lagstiftning” har dock den brittiska regeringen uppmanat befintliga tillsynsorgan att använda gällande regler för att säkerställa att AI-tillämpningar följer riktlinjerna, snarare än att utarbeta nya lagar.

Sedan dess har EU-kommissionen publicerat det första utkastet till sin AI-lag, som försenades på grund av behovet av att inkludera bestämmelser för att reglera de nyare generativa AI-applikationerna. Lagförslaget innehåller krav på att generativa AI-modeller på ett rimligt sätt ska minska förutsägbara risker för hälsa, säkerhet, grundläggande rättigheter, miljö, demokrati och rättsstatsprincipen, med hjälp av oberoende experter.

Den lagstiftning som EU föreslår skulle förbjuda användningen av AI när den kan utgöra ett hot mot säkerhet, försörjning eller människors rättigheter, med bestämmelser om användningen av artificiell intelligens som blir mindre restriktiva baserat på den upplevda risk den kan utgöra för någon som kommer i kontakt med den – till exempel skulle interaktion med en chatbot i en kundtjänstmiljö anses vara en låg risk. AI-system som medför sådana begränsade och minimala risker kan användas med få krav. AI-system som innebär högre nivåer av partiskhet eller risk, såsom de som används för statliga sociala poängsystem och biometriska identifieringssystem, kommer i allmänhet inte att tillåtas, med få undantag.

Men redan innan lagstiftningen hade färdigställts hade Chat GPT i synnerhet redan granskats av ett antal enskilda europeiska länder för eventuella överträdelser av GDPR. Den italienska datatillsynsmyndigheten förbjöd först Chat GPT på grund av påstådda integritetsbrott i samband med chattbottens insamling och lagring av personuppgifter, men återinförde användningen av tekniken efter att Microsoft-stödda OpenAI, skaparen av Chat GPT, förtydligade sin integritetspolicy och gjorde den mer tillgänglig samt erbjöd ett nytt verktyg för att verifiera användarnas ålder.

Andra europeiska länder, däribland Frankrike och Spanien, har lämnat in klagomål om Chat GPT liknande de som lämnats in av Italien, även om inga beslut har fattats med anledning av dessa klagomål.


Olika förhållningssätt till reglering

All reglering återspeglar politiken, etiken och kulturen i det samhälle man befinner sig i, säger Martha Bennett, vice vd och chefsanalytiker på Forrester, och konstaterar att det till exempel i USA finns en instinktiv motvilja mot att reglera om det inte finns ett enormt tryck på att göra det, medan det i Europa finns en mycket starkare kultur av reglering för det allmännas bästa.

– Det är inget fel med att ha en annan inställning, för ja, man vill inte kväva innovation, säger Martha Bennett.

Apropå uttalandena från den brittiska regeringen säger Bennett att det är förståeligt att man inte vill kväva innovation, men hon håller inte med om att den brittiska regeringen kan ge landet en konkurrensfördel genom att till stor del förlita sig på nuvarande lagar och vara mindre sträng än EU:s AI Act – särskilt om detta sker på bekostnad av dataskyddslagarna.

– Om Storbritannien får rykte om sig att ta lättvindigt pår personuppgifter är det inte heller lämpligt, säger hon.

Även om Martha Bennett anser att olika lagstiftningsmetoder kan ha sina fördelar, konstaterar hon att de AI-regler som den kinesiska regeringen har infört skulle vara helt oacceptabla i Nordamerika eller Västeuropa.

Enligt kinesisk lag måste AI-företag lämna in säkerhetsbedömningar till regeringen innan de lanserar sina AI-verktyg för allmänheten, och allt innehåll som genereras av generativ AI måste vara i linje med landets grundläggande socialistiska värderingar. Om reglerna inte följs kommer leverantörerna att bötfällas, få sina tjänster avstängda eller ställas inför rättsliga utredningar.


Utmaningarna för lagstiftning om AI

Även om ett antal länder har börjat utarbeta AI-lagstiftning hindras dessa ansträngningar av att lagstiftarna ständigt måste hinna ikapp ny teknik och försöka förstå dess risker och fördelar.

– Om vi ser till de flesta tekniska framsteg, som internet eller artificiell intelligens, är det som ett tveeggat svärd, eftersom man kan använda det för både lagliga och olagliga ändamål, säger Felipe Romero Moreno, huvudlärare vid University of Hertfordshires Law School, vars arbete fokuserar på rättsliga frågor och reglering av ny teknik, inklusive AI.

AI-system kan också göra skada oavsiktligt, eftersom människor som programmerar dem kan vara partiska och de data som programmen tränas med kan innehålla partisk eller felaktig information.

– Vi behöver artificiell intelligens som har tränats med opartiska data, säger Romero Moreno. Annars kommer beslut som fattas av AI att vara felaktiga och diskriminerande.

Ansvarsskyldighet från leverantörernas sida är avgörande, säger han, och menar att användare bör kunna ifrågasätta resultatet av beslut som fattas med hjälp av artificiell intelligens och tvinga AI-utvecklare att förklara logiken eller resonemanget bakom teknikens resonemang. (Ett aktuellt exempel på ett relaterat fall är en grupptalan som lämnats in av en amerikansk man som nekades ett jobb eftersom AI-programvara bedömde honom som opålitlig).

Teknikföretag måste göra system för artificiell intelligens granskningsbara så att de kan bli föremål för oberoende och externa kontroller från tillsynsmyndigheter – och användare bör ha tillgång till rättslig prövning för att bestrida konsekvenserna av ett beslut som fattats av artificiell intelligens, med slutlig tillsyn som alltid ges av en människa, inte en maskin, säger Romero Moreno.


Upphovsrätt en viktig fråga

En annan viktig regleringsfråga som måste hanteras är upphovsrätten. EU:s AI Act innehåller en bestämmelse som skulle tvinga skapare av generativa AI-verktyg att offentliggöra allt upphovsrättsskyddat material som används för att utveckla deras system.

– Upphovsrätt finns överallt, så när du har en gigantisk mängd data någonstans på en server, och du ska använda dessa data för att träna en modell, är chansen stor att åtminstone en del av dessa data kommer att skyddas av upphovsrätt, säger Sophie Goossens och tillägger att de svåraste frågorna att lösa kommer att handla om de träningsdata som AI-verktygen utvecklas utifrån.

När detta problem först uppstod gjorde lagstiftare i länder som Japan, Taiwan och Singapore ett undantag för upphovsrättsskyddat material som hamnade i träningsdata, med motiveringen att upphovsrätten inte borde stå i vägen för tekniska framsteg.

Men, säger Sophie Goossens, många av dessa upphovsrättsundantag är nu nästan sju år gamla. Frågan kompliceras ytterligare av det faktum att i EU, där samma undantag finns, kan alla som är rättighetsinnehavare välja att inte låta sina uppgifter användas i dataseten.

Eftersom det för närvarande inte finns något incitament för att låta sina data ingå är det nu stora mängder människor som väljer bort detta, vilket innebär att EU är en mindre önskvärd plats för AI-leverantörer att verka på.

I Storbritannien finns för närvarande ett undantag för forskningsändamål, men planen på att införa ett undantag som omfattar kommersiell AI-teknik skrotades, och regeringen har ännu inte tillkännagivit någon alternativ plan.


Vad händer nu?

Hittills är Kina det enda land som har antagit lagar och väckt åtal som rör generativ AI – i maj grep kinesiska myndigheter en man i norra Kina som påstods ha använt Chat GPT för att skriva falska nyhetsartiklar.

På andra håll har den brittiska regeringen sagt att tillsynsmyndigheterna kommer att utfärda praktisk vägledning till organisationer om hur de ska genomföra de principer som beskrivs i vitboken under de kommande 12 månaderna, medan EU-parlamentet just röstat igenom nästa steg mot en färdig AI-lag.

Som jämförelse verkar USA fortfarande befinna sig i ett undersökande skede, även om president Joe Biden och vicepresident Kamala Harris nyligen träffade chefer från ledande AI-företag för att diskutera de potentiella farorna med AI.

Förra månaden träffade två senatskommittéer även branschexperter, däribland OpenAI:s vd Sam Altman. I sitt tal till lagstiftarna sa Sam Altman att reglering skulle vara "klokt" eftersom människor behöver veta om de pratar med ett AI-system eller tittar på innehåll – bilder, videor eller dokument – som genereras av en chattbott.

– Jag tror också att vi kommer att behöva regler och riktlinjer för vad som förväntas i fråga om information från ett företag som tillhandahåller en modell som kan ha de förmågor som vi talar om, sa Sam Altman.

Detta är en åsikt som Forresters Martha Bennett instämmer i och hävdar att den största faran som generativ AI utgör för samhället är den lätthet med vilken felaktig information och desinformation kan skapas.

– Frågan går hand i hand med att säkerställa att leverantörer av dessa stora språkmodeller och generativa AI-verktyg följer befintliga regler kring upphovsrätt, immateriella rättigheter, personuppgifter etcetera, och titta på hur vi ser till att dessa regler verkligen efterlevs, säger hon.

Romero Moreno menar att utbildning är nyckeln till att hantera teknikens förmåga att skapa och sprida desinformation, särskilt bland unga människor eller de som är mindre tekniskt kunniga. Popup-meddelanden som påminner användarna om att innehållet kanske inte är korrekt skulle uppmuntra människor att tänka mer kritiskt på hur de interagerar med onlineinnehåll, säger han och tillägger att något liknande de nuvarande cookie disclaimer-meddelandena som visas på webbsidor dock inte skulle vara lämpligt, eftersom de ofta är långa och invecklade och därför sällan läses.

Oavsett hur den slutliga lagstiftningen ser ut måste tillsynsmyndigheter och regeringar över hela världen agera nu, säger Martha Bennett. Annars kommer vi att hamna i en situation där tekniken har utnyttjats så till den milda grad att vi utkämpar en strid som vi aldrig kan vinna.