Forskare vid University of California Riverside och University of Texas Arlington i USA har nu publicerat forskning som tittar närmare på generativa AI-modeller som Chat GPT:s vattenanvändning.

Chat GPT beräknas då behöva en halvliter vatten för att hantera en konversation som innehåller mellan 20 och 50 frågor och svar, beroende på när och var chattbotten används. Mer exakt är det värmehanteringssystemet som behöver vattnet snarare än själva AI-modellen.

Forskarna förväntar sig att användningen av dylika AI-modeller kommer att öka med tiden vilket innebär att även vattenanvändningen kommer göra det om inte något görs åt datacentren. Enligt forskarna är det därför också viktigt att AI-företagen är öppna med sin vattenanvändning.

– Av någon anledningen släpper dessa företag väldigt otydlig information om sin vattenanvändning. Antingen anger de den genom genomsnittliga effektiviteten av sin vattenanvändning eller också den total konsumtionen, men aldrig båda, och siffrorna släpps vanligen på årsbasis, säger forskaren Shaolei Ren vid UC Riverside till The Register.

Läs också: Google Bard släpps i över hundra länder – men inget inom EU