Allt pekar på att vi kommer se mer och mer av olika AI-tjänster framöver. AI:s styrka är att snabbt kunna analysera stora mängder data och dra slutsatser. Det är till exempel användbart för att upptäcka bedrägerier, optimera logistikkedjor efter köpbeteenden, förstå klimatförändringar, bygga självkörande bilar etc.

Inom sjukvården kan det användas bland annat genom att en AI kan ta in data från olika instrument, kombinera det med all historik om en patient samt all medicinsk litteratur och ställa en diagnos.

Möjligheterna med AI är obegränsade.

Men en produkt eller en tjänst skapar inga effekter i sig, nyttan uppstår först vid användningen. Det är därför jag tror att det är helt avgörande att förstå sig på människor för att kunna skapa bra AI-tjänster. Det jag menar med det är att det spelar ingen roll hur kraftig processor en AI har. Eller hur smarta algoritmer. Om människor ska anförtro en AI med sina liv (till exempel i fallet självkörande bil) så måste de lita på den. Och tillit är inget som uppstår genom att jag till exempel får se en bild av en AI:s systemarkitektur. Det funkar inte så.

Läs också: Nu ska Försvaret storsatsa på AI

Hur uppstår tillit då? Om vi lämnar AI en stund och funderar på hur det funkar mellan människor. Tillit är ju faktiskt inte något flummigt som antingen finns eller inte finns. Det är något konkret som man kan skapa och förstärka genom ett antal beteenden. Du litar på en människa som är transparent med sina avsikter, som är lojal, som visar vad den står för, som tar ansvar för det den gör och kan erkänna sina fel och brister. Ungefär så.

Jag tror att om vi som människor ska kunna lita på en AI måste den uppvisa samma egenskaper. Jag ser det här som en UX-fråga. Det handlar om hur användarupplevelsen.

Jag tror att en AI som en människa ska kunna lita på i exempelvis en medicinsk situation måste:

  • Vara transparent med hur den har dragit sina slutsatser. Den måste kunna förklara och visualisera på ett sätt som patienten kan förstå
  • Vara lojal mot patienten. Kanske även det uttrycks genom transparens. Att patienten får exakt samma information som läkaren
  • Visa vad den står för. Är AI:n subjektiv på något sätt (till exempel hänger ihop med ett visst varumärke) så måste det i alla fall vara helt öppet så att patienten kan ta ställning till det
  • Kunna erkänna fel och brister. Får man en diagnos kanske man vill se tydligt med hur stor sannolikhet AI:n tror att diagnosen stämmer

Eller vad det nu kan vara. Jag har bara spånat lite men jag är helt övertygad om att lita på-faktorn kommer att vara avgörande för vilka tjänster vi väljer att använda.

Bra UX kommer därför vara nyckeln till bra AI.

Nu är ju fallet med att ”anförtro sitt liv åt en AI” lite extremt men jag tror att samma sak gäller för andra tjänster. Precis som i relationen med en människa så tror jag att förtroendet ökar om man förstår hur AI:n har tänkt.

När en tjänst som förutspår vilka filmer jag gillar föreslår att jag kanske skulle uppskatta ”Tingeling – Vingarnas hemlighet” tappar jag allt förtroende för tjänsten. Men om den förklarar att det är ju för att du kollade på ”Tingeling och piratfen” som den tror det så kan jag ju förstå att en yngre familjemedlem använt mitt konto och att tjänsten i det här fallet inte har någon möjlighet att skilja oss åt.

AI:s framtid är troligtvis att vara specialiserad inom olika områden, men jag kan inte låta bli att skriva om robotar med människoliknande intelligens också.

Det här är en artikel från Expert Network

Har du någon gång slagits av tanken att du är en robot utan att själv veta om det? Det scenariot är ju återkommande inom Science fiction.

Robotarna i bland annat Blade Runner, Battle Star Galactica och Westworld glider alla, intet ont anande, omkring och tror att de är människor.

Mina robottankar kan t.ex. dyka upp när jag misslyckas med ett captcha-test. Jag blir alltid nervös när den där rutan dyker upp. ”Please prove that you are not a robot.” Gaaahh, vad står det?! Hur många försök har man på sig? Allvarligt talat, är det där ens riktiga ord?

captcha
"Allvarligt talat, är det där ens riktiga ord?"

Finns det något sätt att ta reda på om man är en robot eller inte då? I Blade Runner används Voight-Kampff-testet. Det innehåller frågor/påståenden i stilen:

”Du är i en öken och får syn på en sköldpadda. Du vänder på sköldpaddan. Dess mage steks av solen och den sprattlar vilt med benen för att försöka vända sig rätt, men den kan inte. Inte utan din hjälp. Men du hjälper den inte. Varför hjälper du den inte?”

och

“Du bläddrar i en tidning och kommer till en bild av en naken kvinna/man. Du visar bilden för din man/fru. Han/Hon gillar den så mycket att han/hon sätter upp den på väggen ovanför sängen.”

Jag tror att det mänskliga svaret är att det är fel att vända på sköldpaddan från första början, men vad gör den där sköldpaddan i en öken? Känns väldigt ologiskt. Om min man satte upp en bild på en naken kvinna eller man ovanför vår säng skulle jag… ja vad skulle jag göra då? Jag skulle nog bli väldigt förvånad i alla fall.

Ett test som används i verkligheten är Turingtestet. Det klarar man om man konverserar med en människa och den människan inte kan avgöra om man är en människa eller en maskin.

Redan 2014 klarade en dator av Turingtestet. 33 procent av deltagarna i testet trodde då att en chattbot var en människa. Turingtestet kan alltså inte användas för att avgöra om någon är en människa eller inte. Som sagt, en dator fixade det redan för tre år sedan.

Hur är det med Asimovs lagar då? Tillämpas de i praktiken? Isaac Asimov formulerade Robotikens lagar på 1940-talet. De lyder:

  1. En robot får aldrig skada en människa eller, genom att inte ingripa, tillåta att en människa kommer till skada.
  2. En robot måste lyda order från en människa, förutom om sådana order kommer i konflikt med första lagen.
  3. En robot måste skydda sin egen existens, såvida detta inte kommer i konflikt med första eller andra lagen.

Ett test för att avgöra om man är en robot eller inte borde vara att försöka bryta mot någon av lagarna. De verkar tyvärr ha stannat i science fiction-världen så testa inte det.

Läs också: Deadline för AI-forskare gjorde slut på molnjättarnas resurser

Jag kommer faktiskt, i skrivandets stund, inte på ett enda sätt att verkligen ta reda på om man är en människa eller en robot. Det kanske inte spelar någon roll heller?

Hur ser bra UX för en människoliknande robot ut då? När det gäller chattbottar verkar många sträva efter att de just ska klara Turingtestet och att vi inte ska veta om vi chattar med en människa eller en bot. Men är det det vi vill, egentligen? Kommer det behovet från användarna eller är det ett antagande någon bara har gjort? Och om AI:n skulle ha en fysisk kropp – är då det bästa om vi inte kan skilja en AI från en människa eller ska skillnaden vara tydlig? Ja inte vet jag. Vi måste nog testa oss fram!

Fakta

Befattning: Konsultchef
Företag: HiQ
Linkedin: Maria Idebro
E-post: maria.idebro@hiq.se
Hemsida: www.hiq.se
Expertområden: Samtids- och framtidsobservationer
Bakgrund: Civilingenjör i Farkostteknik på KTH men halkade snabbt in i it-branschen. Jobbar sen 10 år tillbaka med att förenkla människors liv med hjälp av teknik och kommunikation på HiQ.