– Företag som inte kan förklara hur deras AI-modeller kommer fram till resultat, utan bara använder dem rakt av, kommer inte att vara konkurrenskraftiga, säger Francesca Rossi, AI-etikchef på IBM.

En nyckelaktivitet för att förstå hur AI-modeller fungerar är att förstå vad som påverkar dem. I praktiken handlar det ofta om att förstå hur data är beskaffade.

Nu blir det rätt krångligt. Det engelska ord som Francesca Rossi och andra AI-experter använder för påverkan är ”bias”. En snabb koll i Google Translate ger den svenska översättningen ”partiskhet” som första alternativ. Och det är troligtvis så de flesta svenskar uppfattar ordet ”bias”, som något negativt om man eftersträvar objektivitet.

Men Francesca Rossi använder ordet ”bias” i betydelsen ”påverkan” (ett alternativ som rankas lägre än ”partiskhet” av Google Translate). Den påverkan som kan gömma sig i data som används i AI-modeller kan alltså vara både negativ och positiv.

Läs också: Facebooks AI-chef vill banka in sunt förnuft i maskinerna

Ett exempel på negativ påverkan kan vara lönestatistik. Eftersom kvinnor oftast har lägre lön än män kan en AI-modell kanske komma fram till att det är så det ska vara.

Ett exempel på positiv påverkan? Tja, kanske alla ”halvgalna” entreprenörer som formulerat briljanta idéer som först mottagits med skepsis av omvärlden.

Vad ska man göra om data ger en oönskad påverkan på en AI-modell?

– Det gäller att få utvecklare att förstå och känna igen om data påverkar, säger Francesca Rossi.

Om man kan identifiera påverkan kan man också se över, och eventuellt byta ut, data som används i en AI-modell.

Men påverkan kan inte bara handla om data. Regleringar av olika typer, till exempel lagar, kan påverka det resultat en AI-modell kommer fram till. Det är bra så, om man vill följa lagar, men kan innebära att innovationen som en modell bjuder på tar stryk.

– Det gäller att maximera resultatet genom att kombinera inlärningstekniker och etiska hänsyn.

Etisk hänsyn kan alltså vara att följa lagar och regler. Ett sätt att kombinera ”fria data” och regler kan vara att kombinera maskininlärning med regelbaserade, ”logiska”, lösningar. Sådana användes flitigt tidigare inom AI men har på senare år fått lämna plats för maskininlärning och djupinlärning.

Läs också: Här är advokaterna som utvecklat AI-verktyg för GDPR – ”en testballong”

Utmaningen är att kombinera data med regler på ett sätt som inte begränsar de resultat som man kan komma fram till i en modell med hjälp av maskininlärning och djupinlärning.

Det här är en av de saker som Francesca Rossi jobbar med på IBM. Hon har varit på IBM i tre år och har en gedigen akademisk bakgrund inom AI, och är fortfarande verksam i den akademiska världen. Hon arbetar dessutom i organisationen The Partnership on AI där både stora leverantörer och andra typer av organisationer är med. Hon är dessutom rådgivare till EU i AI-frågor.

Computer Sweden träffade Francesca Rossi på den stora AI-konferensen i Älvsjö som avslutades i torsdag. Där samlades närmare 8 000 deltagare, mest forskare, på fem olika AI-konferenser som pågick samtidigt, varav den största var IJCAI (International Joint Conference on Artificial Intelligence).


ANNONS: Storsatsande eventet IBM Analytics University kommer till Stockholm 17-20 september 2018