Även om många talar om etik och AI så kommer det att dröja innan det etiska perspektivet får fäste i AI-designen. Det visar en rapport från Pew Research Center och Elon University där drygt 600 experter inom bland annat teknik och på affärssidan, forskare och aktivister tillfrågats.

Resultatet visar att en majoritet tror att AI-utvecklingen fortsätter vara inriktad på att optimera vinster och på social kontroll de närmaste åren och att etisk design inte får fäste till 2030, skriver Venture Beat.

68 procent av de svarande tror inte att etiska principer som främst är inriktade på allmänhetens bästa kommer att användas i de flesta it-system om nio år. Resterande 32 procent tror att de kommer att vara det.

En av dem som deltog i studien var internetpionjären Vint Cerf som inte tror att goda avsikter räcker för att nå de resultat man vill. Han framhåller att maskininlärning fortfarande är i början av utvecklingen och att vår förmåga att förutsäga olika typer av fel och de konsekvenser som de får är begränsad.

– Designutrymmet för maskininlärning är enormt och till stor del outforskat. Om vi ​​har problem med vanlig programvara som åtminstone är analytiskt, är maskininlärning en annan historia.

Och trots att exempelvis EU arbetar nyligen presenterade nya regler för AI är den amerikanske medieforskaren Douglas Rushkoff skeptisk till att det lyckas.

– Varför ska AI bli den allra första tekniken vars utveckling dikteras av moraliska principer? Vi har inte gjort det förut, och jag ser det inte hända nu, säger han till Pew och Elon University.

– I grund och botten är skälen till att jag tror att AI inte kommer att utvecklas etiskt eftersom AI utvecklas av företag som vill tjäna pengar – inte för att förbättra det mänskliga tillståndet. Så även om det kommer att finnas några enkla AI som används för att optimera vattenanvändningen på gårdar eller för att hantera andra begränsade resurser, tror jag att det mesta kommer att användas på människor.