L’intelligenza artificiale sta rapidamente diventando il cuore pulsante dell’innovazione aziendale, ma con essa cresce in modo esponenziale anche il suo impatto sull’infrastruttura energetica globale. A lanciare l’allarme è Bill Ray, Distinguished VP Analyst e Chief of Research di Gartner, nel corso del podcast ThinkCast dedicato alle tecnologie emergenti che trasformeranno il futuro del business. Ray mette in evidenza come il consumo di energia legato all’AI stia raggiungendo livelli tali da minacciare la capacità stessa di sostenere lo sviluppo tecnologico.
Se da un lato l’AI genera valore, automazione e vantaggi competitivi, dall’altro impone un carico energetico insostenibile per molte reti e sistemi di distribuzione. Non si tratta di un problema futuro, ma di una crisi già in atto: l’energia rischia di diventare il vero collo di bottiglia dell’economia digitale. La conseguenza più immediata è un freno allo sviluppo dei data center, infrastrutture sempre più essenziali ma sempre più difficili da alimentare.
Indice degli argomenti
L’energia è il nuovo vincolo dell’IT
Uno dei temi più allarmanti emersi nel corso del podcast riguarda il legame sempre più critico tra l’evoluzione delle tecnologie emergenti e la disponibilità energetica.
Ray afferma che entro il 2026 oltre il 30% delle espansioni dei data center sarà ritardato per mancanza di energia, non solo in termini di produzione ma anche di trasmissione e distribuzione. Il problema, dunque, non si esaurisce nella generazione di elettricità, ma riguarda anche l’infrastruttura che dovrebbe trasportarla dove serve. Sempre più spesso, i nuovi data center vengono collocati in prossimità di fonti di energia – dighe idroelettriche, impianti solari, nucleari – per garantirsi una fornitura stabile.
La causa principale? L’esplosione del consumo energetico indotto dall’AI, in particolare durante le fasi di training dei grandi modelli linguistici (LLM), notoriamente dispendiose dal punto di vista computazionale. Secondo Ray, il boom dell’intelligenza artificiale non ha fatto che aggravare una tendenza preesistente: già prima della diffusione della GenAI, i data center consumavano “troppa energia”. L’AI ha solo accelerato e amplificato un problema strutturale.
Ma non è solo una questione tecnica. Il fabbisogno energetico dell’IT si scontra anche con una crescente sensibilità politica e sociale. Ray riporta il caso di un’azienda che ha tentato di negoziare con un fornitore locale un accesso prioritario all’energia per i propri data center, in caso di una futura scarsità. Una proposta che si è rivelata “politicamente tossica”: l’idea che l’energia possa essere tolta alle abitazioni per alimentare l’AI suscita resistenze trasversali, rendendo difficili da negoziare accordi di servizio vantaggiosi per le imprese digitali.
Soluzioni (e problemi) in campo
Per far fronte a questo collo di bottiglia energetico legato al consumo di energia AI, si stanno sperimentando varie soluzioni, alcune innovative, altre di ritorno a tecnologie del passato.
Una prima risposta è di tipo logistico: la collocazione strategica dei data center in prossimità di fonti energetiche primarie. Come spiega Ray nel podcast, la scelta del sito non può più basarsi solo su fattori come la connettività o la sicurezza fisica, ma deve tenere conto della disponibilità energetica e dell’affidabilità della fornitura. In alcuni casi, le aziende stanno progettando di installare generatori locali, ma anche questa strada comporta costi significativi e sfide politiche.
Tra le ipotesi più ambiziose vi è l’investimento nei piccoli reattori nucleari modulari (SMR) , una tecnologia che promette di garantire energia continua e affidabile in prossimità dei data center, senza le criticità ambientali e di scala delle grandi centrali. Secondo Ray, l’interesse per il nucleare è in crescita, spinto dalla necessità di soluzioni a medio-lungo termine. Microsoft, ad esempio, sta già investendo nella fusione nucleare, anche se Ray avverte che questa tecnologia è “sempre a vent’anni di distanza” dalla piena operatività.
Nel breve termine, però, si registra anche un ritorno ai combustibili fossili, soprattutto negli Stati in cui la legislazione ambientale è più permissiva. Una soluzione efficace dal punto di vista della potenza disponibile, ma contraddittoria rispetto agli obiettivi di sostenibilità dichiarati da molte tech company.
Anche la politica energetica nazionale gioca un ruolo cruciale. Ray sottolinea come le trattative per ottenere accesso prioritario all’energia si stiano complicando per le implicazioni sociali che comportano. Il rischio è quello di una crescente tensione tra esigenze industriali e tutela dei consumi civili, che potrebbe rendere ancora più difficile la realizzazione di infrastrutture strategiche per la trasformazione digitale.
Oltre l’efficienza: ripensare l’infrastruttura AI
Il quadro tracciato da Bill Ray è chiaro: la disponibilità e la gestione dell’energia rappresentano la nuova frontiera dell’innovazione AI. L’entusiasmo per i progressi dell’intelligenza artificiale deve necessariamente fare i conti con un vincolo materiale e sistemico: senza energia sufficiente, affidabile e ben distribuita, lo sviluppo di modelli avanzati, la loro implementazione nei processi aziendali e l’espansione stessa dell’infrastruttura IT rischiano di rimanere incompiuti.
L’effetto collaterale più visibile del consumo di energia AI è il rallentamento della crescita dei data center. Ma in prospettiva, il vero rischio è più ampio: se il sistema energetico non sarà in grado di sostenere il ritmo dell’innovazione, l’intero paradigma tecnologico su cui si fonda la nuova economia digitale potrebbe entrare in crisi.