Google Clouds chefsforskare inom AI, Andrew Moore, betonar i en intervju med amerikanska nyhetssajten Venturebeat företagets engagemang i integritetsfrågor och lovar att inte gå igenom de data som företagskunderna delar med sig av när de tränar sina AI-modeller eller lagrar uppgifterna i molnet ”utan ett legitimt behov av support av tjänsten – och även då sker det bara med ditt tillstånd”.

Som en del i den här satsningen lanserar Google Cloud ett verktyg för kunder så att de kan ta bort personliga uppgifter som adresser, kontonummer eller information om familjemedlemmar från text eller medicinska bilder.

Att ta bort sådana uppgifter är ett steg mot att leva upp till nya integritetslagar som EU:s dataskyddsregler GDPR, skriver Venturebeat.

Att ta bort den typen av personliga data kan också vara ett sätt för organisationer att använda samtal mellan kundtjänst och kunder för att träna en chattbot.

– Det här har varit en av de största källorna till oro när man pratar med stora företag om vad som kan hindra dem från att börja använda AI i molnet, säger Moore till Venturebeat.

Moore säger att Google Cloud utvecklat det här verktyget under de senaste nio månaderna.

Kunder som använder redigeringsverktyget ska kunna göra det på sina egna system innan de skickar data till molnet eller via en krypterad molnpartition.

– Som akademiker bekymrade det mig verkligen att maskininlärningsområdet skulle stanna upp på grund av integritetsregler. Men nu genom att utveckla denna serie redigeringstekniker har vi visat både oss själva och våra kunder att vi kan använda AI utan att vi behöver titta på personligt identifierbara data, säger Moore.

Läs mer: Googles molnchef om EU:s datadom: Kunderna har full kontroll över sina data