Personer som lider av psykisk ohälsa kan ha svårt att få hjälp när de behöver, något som fick det amerikanska företaget Koko att testa en kontroversiell metod nyligen.
Drygt 4 000 personer som kontaktade Kokos chatt för att få råd fick nämligen prata med en chattbot som baseras på GPT-3.
Enligt Kokos medgrundare Rob Morris halverades svarstiden och överlag fick svaren från chattboten högre betyg än svaren från de mänskliga medarbetarna.
När personerna väl fick veta att de pratat med en chattbot kände de sig emellertid besvikna, detta med anledning av ”den simulerade empatin”.
Experimentet har mötts av hård kritik från experter, inte minst med tanke på patientsäkerheten.
– Att kasta in något sådant i känsliga situationer är att ta okända risker. En nyckelfråga att ställa sig är ”Vem är ansvarig om AI:n kommer med skadliga förslag?”, säger Emily M. Bender från University of Washington i en kommentar till Motherboard.
Enligt Rob Morris är Kokos mål att ge folk hjälpen de behöver, men han betonar att experimentet nu är avslutat.