È difficile prevedere nel lungo periodo dove porterà l’attuale trend di sviluppo dell’intelligenza artificiale (AI), ma una cosa è già evidente, ed è il forte incremento della domanda di energia, in particolare di quella richiesta per alimentare i data center che supportano workload AI. A livello mondiale, entro il 2030, l’elettricità richiesta dai data center sarà più del doppio, rileva un rapporto dell’Agenzia internazionale per l’energia (AIE). Il rapporto indica l’intelligenza artificiale come il motore più significativo di questo aumento, con una domanda di elettricità da parte dei data center ottimizzati per la AI che dovrebbe più che quadruplicare entro il 2030.
Per sottolineare il preoccupante aumento della domanda di energia, nel 2024 Bloomberg titolava un articolo “L’intelligenza artificiale sta già devastando i sistemi energetici globali”, ricordando come negli Usa, in Virginia settentrionale, oggi considerata una delle aree del globo a più elevata concentrazione di data center, l’ascesa della AI stesse accelerando la richiesta di data center più grandi, e alterando ulteriormente la fisionomia del classico paesaggio rurale, a causa della costruzione di nuovi centri dati.
Indice degli argomenti
Gestire l’energia con efficienza
Nello scenario di letterale esplosione delle applicazioni AI, l’attuale sfida si gioca sulla capacità di progettare e costruire data center di nuova generazione, in grado di conciliare l’inedita richiesta di energia e performance di calcolo con le aspettative di investitori e utenti finali riguardo alle iniziative di decarbonizzazione e sostenibilità.
Il complesso di data center che sta sorgendo a Sines, Portogallo, attraverso il progetto Start Campus, è un esempio del tentativo di raggiungere questo equilibrio. Un progetto in cui Start Campus sta collaborando a stretto contatto con il partner tecnologico Schneider Electric. “In Start Campus ci impegniamo a costruire le basi per la prossima generazione di infrastrutture digitali sostenibili e pronte per la AI” ha dichiarato il ceo Robert Dunn. “L’energia elettrica è una delle risorse più critiche nell’odierna infrastruttura digitale. Ma non si tratta solo di accesso: si tratta di gestire l’energia in modo efficiente, intelligente e sostenibile su larga scala. La partnership con Schneider Electric trasforma il nostro modo di operare, integrando una tecnologia energetica di livello mondiale e una visibilità in tempo reale su ogni livello della nostra infrastruttura” ha aggiunto Dunn.
Raffreddamento a liquido cruciale
Anche nell’infrastruttura di Sines, Schneider Electric sta perseguendo una strategia – come ricorda Andrew Bradner, nella società senior vice president dell’area Cooling Business – indirizzata a fornire una gamma completa di soluzioni per il raffreddamento del data center, “from grid to chip and chip to chiller”. In sostanza, una soluzione di raffreddamento integrata, in grado di coprire l’intero percorso del calore, dal momento in cui l’energia elettrica entra nel data center, a quando attraversa i chip dei server, fino a quando il calore generato dai chip e dai sistemi IT viene estratto e trasportato via dal centro dati.
Oggi però il punto chiave è la gestione termica dei cluster di chip AI, che continuare ad affidare al classico sistema basato su raffreddamento ad aria non si rivela più né efficiente né sufficiente. Tali chip, spiega Bradner in un articolo, generano molto più calore di altre apparecchiature, e per dissiparlo richiedono sistemi basati su tecnologia “liquid cooling”. Finora il tradizionale raffreddamento ad aria (air cooling) era stato il metodo prevalente per abbassare la temperatura di sistemi che arrivano fino a 50 kW per rack: ma quando si tratta di supportare workload AI che raggiungono 150 kW e oltre, diventa necessario integrare la tecnologia air cooling con il raffreddamento a liquido. Inoltre, aggiunge Bradner, le infrastrutture data center in futuro dovranno fornire la flessibilità necessaria per supportare sistemi di raffreddamento ad aria, a liquido, nonché sistemi di cooling ibridi, via via che i requisiti evolveranno. Questa è anche la ragione per cui Schneider ha di recente acquisito una quota di controllo in Motivair Corporation, la cui offerta spazia, dai tradizionali ambienti raffreddati ad aria, alle implementazioni completamente raffreddate a liquido o ibride.
Sinergia tra “liquid cooling” e “air cooling” per un data center più sostenibile
Sul piano dell’efficienza energetica, l’obiettivo di Start Campus è raggiungere un basso PUE (power usage effectiveness), 1.1, rispetto a una media globale che, stando ai dati della Global Data Center Survey 2024, pubblicata dall’Uptime Institute, si attesta su un valore di 1.56.
Com’è possibile perseguire un tale risultato? “Il principale componente è l’infrastruttura e il sistema di raffreddamento che è stato progettato e integrato all’interno del data center” spiega Marc Garner, president Cloud & Service Provider Segment di Schneider Electric, in un’intervista a margine dell’evento di presentazione del centro dati di Sines. “Qui la possibilità di utilizzare acqua di mare è un elemento importante. L’infrastruttura di raffreddamento a liquido rappresenta il vero elemento di differenziazione, perché consente un utilizzo molto più efficiente dell’energia impiegata per alimentare i chip, e poi di estrarre il calore che da questi viene prodotto. Tuttavia, ciò è stato realizzato attraverso la progettazione di un data center efficiente, in cui tutti i componenti e sistemi funzionano in stretta collaborazione. Per ottenere un design realmente ottimizzato, il sistema di raffreddamento a liquido e il sistema di raffreddamento ad aria devono lavorare in parallelo, sincronizzati l’uno con l’altro” chiarisce Garner. Da tale punto di vista, sottolinea, Schneider Electric si posiziona in maniera unica per fornire tecnologia di automazione e ingegnerizzare un’infrastruttura data center che, nell’ottica di supportare sia l’elaborazione tradizionale (CPU) sia i workload AI (GPU), in futuro dovrà diventare molto più agile e intelligente.