News

L’AI generativa “beve” tanta acqua: picco di consumi da gestire 

I modelli linguistici di grandi dimensioni producono quantità di calore e richiedono energie “di grandi dimensioni”. Lo si vede anche dai picchi di consumo di acqua che segnano i più recenti bilanci ESG delle big del cloud. Si tratta però di un “effetto collaterale” dell’innovazione non per forza da considerare inevitabile

Pubblicato il 28 Set 2023

Immagine di Timofeev Vladimir su Shutterstock

Naturale e prevedibile che le richieste di acqua di un’azienda aumenti con l’intensificarsi del suo business. È infatti proprio quello che si legge anche nell’ultimo report ESG di Microsoft, una considerazione vaga, seppur indiscutibile, che ha acceso la curiosità di alcuni ricercatori. Davanti a un consumo di acqua passato dai 4,8 milioni di metri cubi del 2021 ai 6,4 del 2022, all’Università della California di Riverside hanno deciso di approfondirne le ragioni. Soprattutto perché questo aumento di circa un terzo che caratterizza l’ultimo biennio è ben superiore a quello del 14% registrato dalla stessa nota azienda software tra il 2020 e il 2021.

I dilemmi del raffreddamento

L’obiettivo dell’analisi condotta dai ricercatori USA non è fare i conti in tasca a questo gigante, ma prenderlo come caso studio per comprendere i fenomeni di mercato e di innovazione che concorrono maggiormente ai picchi di consumo di acqua raggiunti dal mondo IT. La prima imputata è l’intelligenza artificiale generativa, a cui oggi si guarda come alla responsabile di ogni nuovo trend, ma il team californiano non lo ha dato per scontato, rivelando elementi interessanti di uno scenario meno banale di quanto non si pensi (e desideri).

Per alimentare modelli linguistici di grandi dimensioni (LLM), Microsoft ha implementato decine di migliaia di GPU. Ogni gruppo di 8 in cui sono poi di fatto distribuite consuma tra i 6kW e i 10kW di potenza a pieno carico, una quantità di energia prodigiosa rispetto alle infrastrutture tradizionali dei data center. In prospettiva, ciò significa che un singolo server può consumare quanto un tipico rack di un cloud, richiedendo impianti di raffreddamento “aggressivi” e “assetati”.

I sistemi a liquido, infatti, quelli che utilizzano acqua deionizzata per esempio, risultano più efficienti di quelli tradizionali ad aria. Quando un’azienda deve o desidera vertere su tale tecnologia, è però naturale che veda aumentare in modo decisivo i propri consumi idrici.

Un’alternativa è rappresentata da sistemi basati sull’evaporazione, come le torri di raffreddamento, meno energivori. Questi impianti richiedono comunque molta acqua, la utilizzano per estrarre il calore dall’aria in uscita dal data center, stavolta raffreddandola attraverso la produzione di vapore. Alternativa “bocciata”, quindi, improponibile soprattutto se si vogliono numeri sul report ESG diversi rispetto a quelli di Microsoft che nel 2022 ha consumato 640 piscine olimpioniche in più rispetto all’anno precedente.

Mezzo litro d’acqua a conversazione: la sete di ChatGPT

L’AI generativa sembrerebbe quindi impattare sul consumo di acqua “di rimbalzo”, proprio come accade per qualsiasi innovazione che richiede elevata potenza. Unendo le forze a quelle dei colleghi dell’Università del Texas di Arlington, i ricercatori californiani hanno quindi cercato di determinare nello specifico la quantità di acqua utilizzata da questa tecnologia.

Ciò che è emerso è che uno strumento come ChatGPT “beve” circa una bottiglia d’acqua da 500 ml per ogni semplice conversazione di circa 20-50 domande e risposte. Una stima che colpisce e deve servire per rendere l’idea, anche se va ricordato che il consumo effettivo di acqua associato all’esecuzione di LLM dipende da una serie di fattori, tra cui le tecnologie di gestione termica utilizzate dalla struttura, il luogo in cui i modelli vengono addestrati ed eseguiti e il momento in cui vengono effettuati i lavori.

La sfida del futuro, di fronte alle sempre più frequenti siccità che colpiscono a ogni latitudine, sarà quella di indagare meglio come agire su ciascuno per minimizzare gli sprechi.

Nel frattempo, Microsoft si sta impegnando per diventare “water positive” entro il 2030. Mentre finanzia progetti per la protezione dei bacini idrici, il ripristino delle zone umide e il miglioramento delle infrastrutture nelle regioni soggette a stress idrico, lavora su tecnologie di gestione termica come i sistemi di geoscambio, che permettono di rigettare il calore nel terreno invece di ricorrere a torri di raffreddamento. Li sta implementando presso il Thermal Energy Center di Redmond in cui prevede di ridurre il consumo di acqua di 30.280 metri cubi, circa 12 piscine olimpioniche.

È simile l’approccio scelto anche da altri grandi fornitori di cloud come AWS e Google Cloud ma è innegabile- e quest’ultima l’ha anche ammesso pubblicamente – che l’adozione dell’AI sta rendendo la situazione più difficile.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4