Molti server AI con acceleratori (ad es. GPU) utilizzati per l’addestramento di LLM (large language model) e carichi di lavoro di inferenza generano calore sufficiente da richiedere il raffreddamento a liquido. Questi server sono dotati di tubazioni di ingresso e uscita e richiedono un ecosistema di collettori, CDU (unità di distribuzione del raffreddamento) e sistemi di reiezione del calore all’esterno. Esistono sei architetture comuni di reiezione del calore per il raffreddamento a liquido per le quali forniamo linee guida sulla scelta della migliore opzione per i server AI o il cluster. Schneider Electric ha raccolto le indicazioni per i sistemi di raffreddamento a liquido dei data center nel white paper “Navigating Liquid Cooling Architectures for Data Centerswith AI Workloads”. Eccone una sintesi.
analisi
Architetture di raffreddamento a liquido per data center AI
I carichi di lavoro AI generano molto calore e richiedono sistemi di raffreddamento a liquido. Le architetture prevedono la cattura del calore all’interno dei server, una CDU per controllare il flusso di liquido e un metodo per rifiutare il calore all’esterno

Continua a leggere questo articolo
Argomenti
Canali
VITA DA CIO
-

In A2A, IT e business si muovono a ritmo di jazz
12 Feb 2026 -

Cosa hanno raccontato i CIO nel 2025
26 Dic 2025 -

«Rimettere la “T” al centro dell’IT»: la visione di Enrico Andrini, CIO di Bonfiglioli
16 Dic 2025 -

Dal supercalcolo al pensiero critico: la figura del CIO secondo Dario Pagani (Eni)
27 Nov 2025 -

Modernità e rapidità d’esecuzione: l’IT di Hyundai come ponte tra culture e innovazione
06 Nov 2025








