Molti server AI con acceleratori (ad es. GPU) utilizzati per l’addestramento di LLM (large language model) e carichi di lavoro di inferenza generano calore sufficiente da richiedere il raffreddamento a liquido. Questi server sono dotati di tubazioni di ingresso e uscita e richiedono un ecosistema di collettori, CDU (unità di distribuzione del raffreddamento) e sistemi di reiezione del calore all’esterno. Esistono sei architetture comuni di reiezione del calore per il raffreddamento a liquido per le quali forniamo linee guida sulla scelta della migliore opzione per i server AI o il cluster. Schneider Electric ha raccolto le indicazioni per i sistemi di raffreddamento a liquido dei data center nel white paper “Navigating Liquid Cooling Architectures for Data Centerswith AI Workloads”. Eccone una sintesi.
analisi
Architetture di raffreddamento a liquido per data center AI
I carichi di lavoro AI generano molto calore e richiedono sistemi di raffreddamento a liquido. Le architetture prevedono la cattura del calore all’interno dei server, una CDU per controllare il flusso di liquido e un metodo per rifiutare il calore all’esterno

Continua a leggere questo articolo
Argomenti
Canali
Speciale Digital Awards e CIOsumm.it