SPONSORED STORY

AI data center, ecco perché bisogna andare oltre i rack e lo storage



Indirizzo copiato

L’AI cambia le regole del gioco: dai 10-15 kW per rack per i workload “generalisti” si passa a 40-250 kW. Densità elevata, raffreddamento liquido, modelli finanziari flessibili e governance strategica crescono di importanza. La vision Maticmind 

Pubblicato il 25 nov 2025


Maticmind Point of View

AI data center

Il tema dell’infrastruttura IT sta progressivamente uscendo dallo status quo dei tradizionali data center per entrare in una nuova fase. È l’era degli AI data center, infrastrutture progettate e operate per supportare carichi di lavoro legati all’intelligenza artificiale. Per i CIO e i responsabili IT aziendali la sfida è chiara: non basta più avere uno spazio, uno storage e un numero di server. Serve potenza, densità, raffreddamento, modelli finanziari e metriche di ritorno ben definite.

Secondo il report di JLL, “2025 Global Data Center Outlook”, la domanda globale di data center crescerà mediamente del 15% annuo nei prossimi anni, ma questo ritmo non sarà sufficiente a soddisfare il boom generato dall’adozione della tecnologia. In questo quadro, il mercato globale degli AI data center è stimato in forte espansione: analisi recenti, come quella di AllAboutAI, indicano un tasso di crescita composto (CAGR) attorno al 30% o più, con investimenti che nel 2024 hanno superato i 57 miliardi di dollari e potrebbero puntare a oltre 200 miliardi entro il 2030.

Il contesto italiano ed europeo: opportunità e sfide per i data center AI-ready

In Italia, il dossier “Data Center Intelligence Italia 2025” aggiunge un ulteriore tassello allo scenario: il mercato vedrà oltre 15 miliardi di euro di investimenti entro il 2026, con Milano che si conferma hub strategico europeo con 238 MW IT (+34% annuo). Il Paese sta assumendo un ruolo crescente nel panorama europeo dei data center: questo significa che le aziende italiane e i CIO hanno l’opportunità di costruire infrastrutture AI-friendly nel domestico, piuttosto che delegare tutto all’estero.

In Europa, intanto, la normativa ESG, la riduzione dell’impronta energetica e la direttiva sull’AI stanno incidendo anche sull’infrastruttura dei data center. Le stime di mercato prevedono che la domanda elettrica dei data center crescerà del 165% entro il 2030. Questo pone un vincolo: non basta capacità, serve efficienza e sostenibilità. In Italia, la scelta del sito, le fonti energetiche, il raffreddamento diventano criteri strategici.

Come lAI spinge alla trasformazione dei data center

Un data center “tradizionale” è stato pensato per carichi generalisti: web, applicazioni, storage, backup. Le densità per rack, i consumi di potenza e le esigenze di raffreddamento restano in un range standard (10-15 kW per rack). Per contro, un AI-ready data center supporta workload di training, inferenza e AI agentica, richiedendo spesso densità molto più elevate (si parla di 40-250 kW per rack). Come spiega Pasquale Anobile, Head of Business Development & CSM – BU Digital Technologies di Maticmind, «serve ripensare la filiera: non più solo rack e storage, ma architetture accelerate, GPU, collegamenti ad altissima banda, sistemi di raffreddamento specialistici».

I requisiti infrastrutturali dellAI: potenza, rack density, raffreddamento

Con l’adozione dell’AI, i requisiti cambiano. Occorrono elevate potenze elettriche, reti di distribuzione capaci, sistemi di raffreddamento (liquido, rear-door, direct-to-chip) perché la dissipazione termica è molto più ampia. Il report JLL evidenzia che il raffreddamento liquido sta diventando essenziale nelle strutture AI-intensive. Inoltre, la trasmissione dell’energia e la disponibilità di linee elettriche adeguate rappresentano uno dei maggiori colli di bottiglia. «La densità per rack, l’efficienza energetica, la gestione operativa diventano fattori critici: un’infrastruttura tradizionale non basta più», puntualizza a tal proposito Anobile.

Perché lAI accelera la domanda di capacità e infrastrutture

Va poi considerato che l’AI non è una tecnologia “nice to have”, ma è ormai integrata nei processi: generative AI, machine learning, agenti intelligenti. Le aziende stanno scalando in modo repentino. E questa spinta richiede infrastrutture adeguate: capacità di storage, GPU, densità elevata. Secondo il report AllAboutAI, circa il 33% degli 11.800 data center nel mondo sarà ottimizzato per workload AI entro fine 2025. In pratica, la domanda spinge i provider di colocation, gli hyperscaler, gli operatori di rete a investire molto più rapidamente di quanto si sarebbe previsto in un modello “IT tradizionale”.

Business case e ROI per data center AI-ready

Per il CIO, il vero nodo è misurare il ritorno sull’investimento (ROI): non basta costruire infrastruttura, serve misurarne l’impatto sul business. KPI operativi (uptime, densità rack, kW per rack, Pue), KPI business (riduzione tempi di training AI, performance modelli, time to market), KPI strategici (innovazione, nuovi modelli di revenue). Come sintetizza Anobile: «’Linvestimento infrastrutturale deve essere guidato da obiettivi di valore: velocità dell’AI, qualità del dato, efficienza operativa». Il CIO dovrà quindi costruire un cruscotto che unisca questi indicatori e li allinei agli obiettivi aziendali.

Modelli di servizio e finanziamento: Capex vs Opex

Un data center AI-ready può essere gestito come investimento (Capex) oppure come servizio (Opex) attraverso modelli di colocation, Gpu-as-a-Service, infrastruttura “as-a-service”. La scelta implica riflessioni su scalabilità, rischi e agilità. In alcuni casi le aziende possono preferire un modello flessibile, riducendo vincoli e accelerando l’adozione. Anobile lo esplicita così: »La scelta tra ownership e service cambia il modello operativo: l’IT deve decidere se diventare internal provider o orchestratore dell’ecosistema».

Ci sono casi in cui l’infrastruttura AI ha portato a risparmi di tempo, aumento dell’accuratezza dei modelli, nuovi servizi abilitati. Ad esempio, con un data center ottimizzato per l’AI, un’azienda può ridurre da settimane a giorni il training di un modello linguistico, oppure scalare velocemente l’inferenza per milioni di utenti. Questo si traduce in vantaggio competitivo e fatturato aggiuntivo. Per il CIO, questi casi reali diventano elementi chiave per “vendere” il progetto al board aziendale.

Il modello Gpu as a Service, in particolare, consente alle aziende di affittare potenza Gpu per training o inferenza AI senza acquistare hardware. Questo consente scalabilità flessibile e un modello Opex anziché Capex. »Per molte Pmi – chiarisce Anobile – è la porta d’ingresso all’AI: non serve un data center interno, basta un accesso scalabile alla potenza».

Use case reali di AI applicata grazie a data center agentici

L’AI sta trasformando la customer experience (CX): chatbot intelligenti, raccomandazioni in tempo reale, analisi predittiva. Per questi use case serve un’infrastruttura reattiva: storage veloce, scalabilità orizzontale. «Quando l’utente finale interagisce in real time con un agente digitale – fa notare Anobile -, l’infrastruttura dietro deve essere estremamente performante: serve una risposta immediata».

Computer vision e design: workload e requisiti GPU

In settori come retail, manufacturing, design, la computer vision genera enormi volumi di dati video/immagine che devono essere processati rapidamente. I workload richiedono GPU specializzate, memorie high-bandwidth, pipelining ottimizzato. L’infrastruttura del data center deve quindi supportare queste esigenze con densità elevata, raffreddamento efficace e architetture “AI-first”.

Edge computing e predictive maintenance: il data center distribuito

Ma l’AI non vive solo nei grandi hub centrali: l’edge computing porta l’intelligenza “vicino” ai luoghi di origine dei dati (fabbriche, filiali, device IoT). In questi scenari la distribuzione del data center e la connessione con l’edge diventano fondamentali. Il data center AI-ready deve supportare anche modelli hybrid e distribuiti: «Non più solo centro unico, ma rete di infrastrutture che abilitano l’AI ovunque», spiega Anobile.

Perché il system integrator diventa partner strategico nellAI data center

Un data center AI-ready non è solo “hardware e cablaggi”: richiede visione, roadmap, governance, change management. Il partner (system integrator) ideale deve offrire competenze tecnologiche (GPU, liquid cooling, rack density) e capacità di consulenza su strategia, modelli di servizio e valore per il business.«“L’integratore – sottolinea ancora Anobile – non serve solo a cablare: serve a tradurre l’AI in infrastruttura e l’infrastruttura in valore».

La roadmap deve naturalmente essere condivisa: infrastruttura, modellazione dei carichi AI, deployment, scalabilità, monitoraggio e scaling. Il CIO, insieme al partner, deve definire milestones, fasi pilota, metriche di successo, governance. Solo così il progetto data center è allineato all’adozione dell’AI.

In questa complessa evoluzione, il passaggio a un data center AI-ready coinvolge persone, processi e tecnologie. Serve dunque governare il cambiamento: nuova architettura, nuove competenze operative, nuovi modelli di gestione energia e raffreddamento. Anche la sicurezza e la compliance cambiano: l’AI amplifica rischi e richiede maggiore osservabilità. Un buon integratore – puntualizza il referente Maticmind – «aiuta a gestire queste sfide».

AI e observability: il nuovo paradigma operativo del data centre

Tradizionalmente il data center eseguiva monitoring passivo: allarmi, dashboard, interventi manuali. Con l’AI entra in scena la observability attiva: sistemi che analizzano i log, prevedono anomalie, interagiscono via agenti intelligenti. Il data center AI-ready diventa “agentico”, capace di auto-ottimizzarsi e di comunicare con gli operatori. Anobile osserva: “Il vero salto è far parlare l’infrastruttura con l’AI: quando il sistema indica il problema, propone la soluzione”.

Serve quindi adottare strumenti che combinano telemetry, machine learning, correlazione eventi, visualizzazione avanzata. Le piattaforme moderne permettono di prevedere carichi improvvisi, bilanciare risorse, intervenire sui consumi energetici. In questo contesto, il data center non è più solo “fabbrica” ma “cervello operativo”.

Ma ne vale la pena? La risposta è sì: i benefici sono notevoli. Uptime migliorato, efficienza energetica, maggior velocità di risposta, riduzione dei costi operativi sono alcuni esempi. Ma i rischi sono altrettanto numerosi: sovra-dipendenza da modelli, complessità tecnica, governance debole, sicurezza AI. È necessario quindi bilanciare automazione e supervisione umana.

GPU as a Service e modelli dadozione per PMI e grandi imprese

Le PMI spesso non dispongono di budget o competenze per un data centre AI-ready interno. Il modello GPU as a Service è un mezzo che consente di abbattere la barriera economica, con modelli pay-per-use o subscription. Questo rende l’AI accessibile anche fuori dai grandi gruppi.

Si tratta di un’opzione particolarmente appetibile. Non a caso, alcune realtà hanno già adottato modelli di GPU cloud/colocation, pagando in base all’uso effettivo. Il pricing può includere durata del training, numero di inferenze, uso di risorse estreme. Il vantaggio per il CIO è la flessibilità: si scala in base alla domanda e si misura direttamente il ritorno.

Verso unIT agentica: roadmap per il management e gli stakeholder aziendali

La trasformazione verso un data center AI-ready non è solo IT: coinvolge CIO, CFO, CDO (Chief Digital Officer), responsabili operations e business. Bisogna definire chi guida il cambiamento, chi misura gli impatti, chi valuta i rischi. «La governance – conferma Anobile – è centrale: senza un comitato trasversale rischiamo di costruire un monumento tecnico e non un motore di business».

Un’analisi McKinsey (“AI Transformation Roadmaps”, 2023) indica che i programmi di adozione dell’AI e adeguamento infrastrutturale raggiungono la piena maturità in circa tre anni, dopo una fase sperimentale di 6-12 mesi e uno scaling operativo di 12-24 mesi. Alla fine, il successo si misura con indicatori precisi: riduzione dei tempi di training AI, aumento del numero di modelli in produzione, miglioramento della CX, riduzione costi operativi, efficienza energetica (Pue), aumento delle revenue digitali. «La misura è la bussola – conclude Anobile -: senza KPI tutto è rumore».

In sintesi, per il CIO che considera l’evoluzione della propria infrastruttura i temi da tenere in conto sono molteplici e interconnessi: densità e potenza dell’hardware, modelli finanziari flessibili, partner tecnologici integrati, metriche di business chiare, governance e change management, localizzazione strategica e sostenibilità. Il passaggio da data center tradizionale a AI-ready diventa non solo una questione tecnica ma una leva strategica per l’azienda.

E come ricorda Anobile: «Non basta avere potenza: serve che l’infrastruttura sia un abilitatore del valore, non un vincolo». In questo senso, sedi strategiche, soluzioni modulari, finanziamenti agili e partner che facciano da catena di valore diventano la nuova normalità. Il CIO che sa orchestrare questa trasformazione ha davanti una grande opportunità: non solo ridurre costi o aumentare efficienza, ma rinnovare il significato stesso dell’IT aziendale.

Speciale Digital Awards e CIOsumm.it

Tutti
Update
Ricerche
Keynote
Leggi l'articolo AI e Customer Experience: oltre la tecnologia, la relazione umana
round table
AI e Customer Experience: oltre la tecnologia, la relazione umana
Leggi l'articolo GenAI: dai dati alla cultura aziendale, come creare valore oltre l’hype
intelligenza artificiale
GenAI: dai dati alla cultura aziendale, come creare valore oltre l’hype
Leggi l'articolo Edge AI: quando l’intelligenza artificiale pensa veloce e agisce da vicino
intelligenza artificiale
Edge AI: quando l’intelligenza artificiale pensa veloce e agisce da vicino
Leggi l'articolo CIO e AI, cosa è veramente “essenziale”?
la ricerca
CIO e AI, cosa è veramente “essenziale”?
Leggi l'articolo CIO e CISO: alleati o rivali? Dentro le nuove dinamiche della governance digitale
la ricerca
CIO e CISO: alleati o rivali? Dentro le nuove dinamiche della governance digitale
Leggi l'articolo Dalle risorse umane alle “umane risorse”: il nuovo paradigma della leadership empatica
CIO & management
Dalle risorse umane alle “umane risorse”: il nuovo paradigma della leadership empatica
Leggi l'articolo Digital360 Awards 2025: ecco i progetti premiati dai CIO italiani
L'evento
Digital360 Awards 2025: ecco i progetti premiati dai CIO italiani
Leggi l'articolo Agentic AI e High-Performance IT: la rotta per i CIO tra opportunità e sfide
La guida
Agentic AI e High-Performance IT: la rotta per i CIO tra opportunità e sfide
Leggi l'articolo Digital360 Awards e CIOsumm.IT: il futuro digitale passa da Lazise 
L’evento
Digital360 Awards e CIOsumm.IT: il futuro digitale passa da Lazise 
Leggi l'articolo Digital360 Awards e CIOsumm.IT 2025: l’essenzialità nell’era dell’AI
Eventi
Digital360 Awards e CIOsumm.IT 2025: l’essenzialità nell’era dell’AI
Leggi l'articolo Digital360Awards e CIOsumm.it, i momenti salienti
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Leggi l'articolo AI e Customer Experience: oltre la tecnologia, la relazione umana
round table
AI e Customer Experience: oltre la tecnologia, la relazione umana
Leggi l'articolo GenAI: dai dati alla cultura aziendale, come creare valore oltre l’hype
intelligenza artificiale
GenAI: dai dati alla cultura aziendale, come creare valore oltre l’hype
Leggi l'articolo Edge AI: quando l’intelligenza artificiale pensa veloce e agisce da vicino
intelligenza artificiale
Edge AI: quando l’intelligenza artificiale pensa veloce e agisce da vicino
Leggi l'articolo CIO e AI, cosa è veramente “essenziale”?
la ricerca
CIO e AI, cosa è veramente “essenziale”?
Leggi l'articolo CIO e CISO: alleati o rivali? Dentro le nuove dinamiche della governance digitale
la ricerca
CIO e CISO: alleati o rivali? Dentro le nuove dinamiche della governance digitale
Leggi l'articolo Dalle risorse umane alle “umane risorse”: il nuovo paradigma della leadership empatica
CIO & management
Dalle risorse umane alle “umane risorse”: il nuovo paradigma della leadership empatica
Leggi l'articolo Digital360 Awards 2025: ecco i progetti premiati dai CIO italiani
L'evento
Digital360 Awards 2025: ecco i progetti premiati dai CIO italiani
Leggi l'articolo Agentic AI e High-Performance IT: la rotta per i CIO tra opportunità e sfide
La guida
Agentic AI e High-Performance IT: la rotta per i CIO tra opportunità e sfide
Leggi l'articolo Digital360 Awards e CIOsumm.IT: il futuro digitale passa da Lazise 
L’evento
Digital360 Awards e CIOsumm.IT: il futuro digitale passa da Lazise 
Leggi l'articolo Digital360 Awards e CIOsumm.IT 2025: l’essenzialità nell’era dell’AI
Eventi
Digital360 Awards e CIOsumm.IT 2025: l’essenzialità nell’era dell’AI
Leggi l'articolo Digital360Awards e CIOsumm.it, i momenti salienti
Video
Digital360Awards e CIOsumm.it, i momenti salienti

Articoli correlati