De flesta, även AI-företagen själva, verkar vara överens om att någon form av reglering av AI nog är en god idé. Tyvärr tenderar debatten att spreta en hel del och det beror inte så lite på att ”domedagscenariot” får alldeles för stor plats.

Ni känner till diskussionen, som tog rejäl fart efter uppropet där ett antal AI-experter under ledning av svenske Max Tegmark krävde en paus i utvecklingen. Sedan dess läggs ganska mycket fokus, inte minst i medierna, på den hypotetiska frågan om utvecklingen kommer att leda fram till en mäktig AI som raserar all mänsklig civilisation och förvandlar oss alla till gem.

Huruvida det blir så ska jag i all ödmjukhet låta vara osagt, och det är absolut så att det finns forskare som på fullt allvar ser AI-apokalypsen som ett högst tänkbart scenario. Samtidigt finns det också som jag skrivit tidigare en stor portion hajpbyggande, positionering och egenintresse i de här frågorna.

Ett för stort fokus på Ragnarök GPT riskerar att, omedvetet eller medvetet, bli en avledning från de lite mer aktuella frågorna om hur vi ska hantera AI här och nu. Det går för all del att tycka att en framtida allsmäktig AI är det största problemet, men det hindrar inte att det vi har att förhålla oss till nu är att det är vi människor som kommer att använda AI på både jättebra och jättedåliga sätt. Och det är vårt egen användning som behöver regleras om något, inte AI:n i sig.

En rätt bra förteckning över tänkbar djävulskap som AI-modellerna kan användas till är faktiskt Open AI:s egen användarpolicy där allt från politisk påverkan, bedrägerier och sms-lån till medicinsk rådgivning och känsliga myndighetsbeslut rakt av är förbjudet. Men det är ju en självpåtagen policy och inget man kan räkna med att alla AI-företag ställer upp på.

Det dyker upp intressanta förslag. I amerikanska senatens utskottsförhör med Open AI:s vd Sam Altman i veckan föreslogs ett sorts licenskrav för AI-företag, och jag har även sett förslag om en typ av AI-myndighet som CE-stämplar godkända system. Längst har förstås EU kommit, där AI Act som ställer olika krav på AI-system utifrån risknivå väntas bli klar under hösten.

Balansgången är svår. En alltför klåfingrig och detaljerad reglering kan slå både mot innovation och mot möjligheten att faktiskt använda AI-systemen för bra saker. Det är ur den aspekten lite bekymrande att Google inte ens vågat släppa sin chattbott Bard i EU ännu, något som antas bero på kraven som redan finns i GDPR.

Ytterligare en utmaning är att skriva regleringar som håller över tid. Arbetet med AI Act fick snabbt uppdateras efter Chat GPT:s genombrott, men vad är det som säger att det inte kommer ett nytt, väsenskilt, genombrott dagen efter att lagstiftningen klubbats?

Till detta ska läggas att delar av utvecklingen och användningen redan sker utanför den mer reglerbara världen: i open source-communityn och bland hackare på Discord och Reddit.

Det finns framåt också fler stora politiska frågor som lär behöva adresseras, om maktkoncentration, ägande av data, ekonomisk fördelning och rentav beskattning.

Så ja, det är ett digert, svårt och viktigt jobb som ska göras. Men som sagt: fokus på bollen. Och på spelarna.

Som, än så länge, är människor.

Den här krönikan är hämtad ur Marcus Jerrängs veckobrev, ett exklusivt och personligt nyhetsbrev med analyser, läs- och länktips som skickas ut till Pro-medlemmar på fredagar. Vill du också läsa nyhetsbrevet? Registrera dig som medlem helt kostnadsfritt.