Che i popolari software di Intelligenza artificiale come ChatGpt di OpenAi e Bard di Google consumassero molta energia richiedendo grandi data center, lo si poteva immaginare.
Che però oltre all’energia ci fosse anche un enorme dispendio di acqua per il raffreddamento lo ha certificato l’Università del Colorado Riverside e l’Università del Texas di Arlington. In uno studio dei due Atenei si è calcolato ad esempio che l’addestramento di ChatGpt-3 ha consumato 700.000 litri di acqua dolce per il raffreddamento del data center. Un quantitativo sufficiente a realizzare 370 auto Bmw o 320 Tesla. Mentre lo scambio di conversazioni di un utente medio con ChatGpt equivale al consumo di una bottiglia di acqua.
L’IMPRONTA
I ricercatori temono che, visto il costante aumento dell’uso di questi strumenti da parte della popolazione mondiale, tutto questo consumo d’acqua possa avere un impatto preoccupante sulle forniture idriche, in rapporto alla crescente siccità e ai problemi ambientali.
© RIPRODUZIONE RISERVATA
Profilo Abbonamenti Interessi e notifiche Utilità Contattaci
Logout