News

Nemmeno l’AI può prevedere quanto consumerà l’AI

Il progredire dell’efficienza dei server AI, l’evoluzione dei motori di ricerca e un paradosso che ribalta ogni speranza di mitigazione dei consumi energetici. Nello studio di un ricercatore olandese le sfide ambientali legate all’AI si mostrano in tutta la loro vera natura complessa e chiedono ad aziende, governi e cittadini di interrogarsi maggiormente sull’utilizzo e sull’utilità di questa tecnologia

Pubblicato il 23 Ott 2023

Immagine di dodotone su Shutterstock

Se l’intelligenza artificiale è già da tempo protagonista delle strategie e dei modelli di business come anche del mondo dei media e del marketing, ora sta diventando quasi automatico associarle di default il tema della sostenibilità ambientale. Nulla di più comprensibile e ragionevole: l’adozione di questa tecnologia da parte di un’ampia varietà di applicazioni sta causando una effettiva e preoccupante impennata nel consumo di elettricità e di acqua dei data center, per non parlare della crescita di emissioni.

Il rischio è che se ne parli tanto ma male, credendo valgano delle logiche plausibili ma non sempre verificate e reali, un po’ come le allucinazioni dell’AI stessa. Per questo, lavori scientifici indipendenti e certosini, coraggiosi e proattivi, come quello del ricercatore della Vrije Universiteit Amsterdam Alex de Vries meritano spazio. Infondono qualche dubbio e propongono interrogativi da prendere in considerazione come comunità umana, proprio perché non tutto è sempre prevedibile: non tutte le variabili della crisi climatica sono già state tracciate.

L’evoluzione dell’impatto energetico dei server AI

La prima mossa differenziante che il ricercatore olandese propone è quella di concentrare l’attenzione anche sulla fase di inferenza, oltre che sul dispendioso e molto analizzato training. Ciò significa valutare con precisione anche l’energia consumata dai modelli AI durante il loro funzionamento, per capirne i reali impatti sull’intero ciclo di vita.

Dal documento stilato, emerge per esempio che ChatGPT ha richiesto 564 MWh al giorno (3.617 server basati sulla piattaforma Nvidia HGX A100 e dotati di un totale di 28.936 GPU), dato da confrontare con i 1.287 MWh stimati utilizzati per la fase di formazione del “collega” GPT-3, per comprendere le considerazioni su inferenza e training di de Vriers.

La stima che più colpisce nello studio è però quella relativa al consumo energetico di Google se aggiungesse definitivamente funzionalità di ricerca basate sull’intelligenza artificiale con chatbot. È la stessa società a ipotizzare un fattore di aumento pari a 10 rispetto alla ricerca standard con parole chiave. Ogni domanda posta al search engine, equivarrebbe a un’interazione LLM da 3 Wh di energia: in totale servirebbe la stessa che consuma l’Irlanda, 29,3 TWh all’anno.

I paragoni con Paesi reali e vicini stupiscono e fanno titolo, ma vanno contestualizzati. Questo viene condotto partendo dal presupposto che l’AI venga adottata su larga scala, ma sempre con hardware e software come quelli attuali, ma è molto più realistico pensare a dei progressi lato server che potrebbero mitigare i consumi. Secondo de Vries, si arriverebbe un aumento causa AI tra i 5,7 e gli 8,9 TWh di elettricità all’anno, trascurabile rispetto alla stima storica del consumo annuo di elettricità da parte dei data center di 205 TWh. Trascurabile, fino a quando – cosa che molto probabilmente accadrà entro il 2027 – il gigante Nvidia darà la luce a 1,5 milioni di unità delle sue piattaforme server AI “nuove e performanti”, da 85,4 a 134 TWh di elettricità. Cambiando l’ordine di grandezza, non si potrà più parlare di “trascurabile contributo dei server AI”.

Un paradosso che interroga tutti gli utenti di AI

Già solo questi “assaggi” del lungo studio realizzato, fanno comprendere come i futuri consumi di energia legati all’AI non siano affatto prevedibili. Da considerare, c’è poi anche l’effetto del paradosso di Jevons, che osserva cosa accadrà quando le innovazioni nelle architetture e negli algoritmi dei modelli ridurranno la potenza di calcolo necessaria per elaborare modelli complessi di AI.

Meno potenza, quindi meno impatto ambientale? Affatto, perché l’aumento dell’efficienza stimolerà probabilmente la domanda. Quando anche le GPU di livello consumer potranno addestrare i modelli, si avranno nuove “voci di consumo” oltre a quella delle GPU ad alte prestazioni che si stanno ora considerando. Voci che potrebbero vanificare totalmente i progressi in efficienza energetica su cui finora molti confidavano con ottimismo naïf.

Questo paradosso appare come una trappola in cui molto probabilmente cadremo, pur conoscendone già ora l’esistenza, ma ci regala un alert sul nostro stile di condotta nell’approcciare l’AI generativa, come cittadini, “giocando con ChatGPT”, da aziende e anche come società. Già da ora dovremmo smettere di utilizzare tale tecnologia in ogni occasione, di default, senza stimarne i reali benefici come forse faremmo con altre meno “di moda”, con fare più scettico. Seppur potente, è piuttosto surreale pensare che l’AI che sia davvero utile in ogni occasione o che i benefici superino sempre i costi.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4