Stat News rapporterar om problem med IBMs AI-plattform Watson. Enligt sajten ska interna IBM-dokument beskriva hur en Watsonbaserad lösning för behandling av cancer ofta ger ifrån sig felaktiga rekommendationer för behandlingar. Det ska handla om ”flera exempel på osäkra och felaktiga rekommendationer för behandlingar”.

Problemen ska bero på att AI-lösningen ska ha tränats på ett slarvigt sätt. I stället för att använda verklig information om cancerfall ska man ha använt ”syntetiska” data. ”Fake data”, kanske man kan säga.

Det verkar som om den uråldriga devisen ”skit in, skit ut” gäller även för AI.

Läs också: Här är Cimon – astronauternas nya AI-kompis

Det är inte bara IBM som har problem med AI-lösningar, rapporterar The Register. Översättningslösningar är ännu inte lika bra som människor, vilket bland annat gäller Googles Neural Machine Translation (NMT).

Enligt Sharon Zhou, student på Harvard, ska det bero på problem med ”pålitlighet, minne och sunt förnuft”. För datorer alltså, även om det är vanliga ”åkommor” för människor också.

Som bevis på problem framför The Register exemplet med att skriva ordet ”dog” 18 gånger och sedan översätta från yoruba (populärt språk i bland annat Nigeria) till engelska, vilket ska ha resulterat i en ”apokalyptisk domedagsvarning” som börjar med ”Doomsday Clock is three minutes at twelve”.

Om man testar det nu så blir resultatet bara ”dog” 18 gånger.


ANNONS: Storsatsande eventet IBM Analytics University kommer till Stockholm 17-20 september 2018