infrastrutture

Data center come asset strategico, i casi concreti di Eni e Unipol



Indirizzo copiato

Dalle infrastrutture di supercalcolo di Eni ai modelli ibridi e automatizzati di Unipol, le grandi imprese italiane ripensano il data center come piattaforma strategica. Le cose da sapere

Pubblicato il 20 gen 2026



Michele Mazzarelli (Eni) e Riccardo Perrotta (Unipol)
Michele Mazzarelli (Eni) e Riccardo Perrotta (Unipol)

L’Italia sta ridefinendo il proprio ruolo nello scacchiere digitale internazionale, puntando a trasformarsi in un vero e proprio hub europeo per l’infrastruttura tecnologica.

Questo passaggio fondamentale richiede una revisione profonda delle strategie legate ai data center aziendali, non più visti come semplici centri di costo ma come asset strategici per la competitività nazionale. Le testimonianze raccolte durante il confronto tra aziende enterprise, tenutosi in occasione del convegno organizzato dall’Osservatorio Data Center del Politecnico di Milano evidenziano come i grandi player industriali stiano operando una transizione profonda, integrando supercalcolo, sostenibilità energetica e modelli di gestione ibridi. In altre parole, le infrastrutture si pongono come abilitatore tecnologico per l’erogazione di servizi e soluzioni a supporto della digitalizzazione delle imprese.

Il caso Eni e la superpotenza di calcolo

La strategia di Eni nel settore dei data center rappresenta un caso di studio unico nel panorama italiano per la sua capacità di anticipare i trend tecnologici. Per oltre quindici anni, il gruppo ha scelto di investire massicciamente in infrastrutture proprietarie, una controtendenza rispetto a un mercato orientato prevalentemente verso il Cloud. Michele Mazzarelli, Head of Digital & AI nella nuova unità Data Centers Program Management di Eni, spiega che questa scelta è stata dettata dalla volontà di essere protagonisti nella trasformazione digitale: «quando si parla di energia, Eni cerca di essere protagonista. La trasformazione digitale è sempre stata nelle nostre corde».

Il cuore pulsante di questa strategia è stato il Green Data Center di Ferrera Erbognone, realizzato nel 2011 con obiettivi di efficienza energetica allora pionieristici. Il primo target era un PUE (Power Usage Effectiveness) di 1,2, un valore estremamente ambizioso per l’epoca. Come sottolineato da Mazzarelli, «quindici anni fa, PUE inferiori a 1.2 non esistevano ed era un obiettivo abbastanza difficile da raggiungere. Lo abbiamo fatto e lo abbiamo mantenuto». Quell’investimento iniziale si è evoluto costantemente, trasformandosi da un supporto puramente interno a una base per sistemi di High Performance Computing (HPC) che oggi siedono ai vertici mondiali.

La potenza di HPC6 e le nuove frontiere del calcolo industriale

L’evoluzione tecnologica ha portato Eni a una crescita esponenziale della propria capacità di calcolo. Ripensando agli inizi, Mazzarelli osserva: «siamo partiti da un sistema che ci sembrava gigante quindici anni fa e che oggi è una piccola macchina». Il culmine di questo percorso è l’attivazione di un supercomputer da 10 MW di consumo al picco capace di raggiungere oltre 600 Petaflops. Attualmente, questa potenza è impiegata per supportare operazioni interne critiche, «dai sistemi gestionali a quelli a supporto della geofisica per l’analisi dei giacimenti».

L’utilizzo di tali data center aziendali ad alte prestazioni ha un impatto diretto sul business core di Eni. La precisione garantita dal supercalcolo è vitale poiché «le ricerche di giacimenti sono sempre più complesse e sbagliare lo sfruttamento di un sito costa parecchi milioni di euro; essere precisi e rapidi nelle valutazioni fa la differenza». Oltre alla geofisica, il supercomputer viene impiegato per la ricerca di nuovi materiali, l’ottimizzazione di reti e le ricerche d’avanguardia sulla fusione a confinamento magnetico.

La partnership MGX e l’energia blu per l’AI Factory

Una nuova opportunità strategica è emersa con la crescita dei data center aziendali dedicati all’Intelligenza Artificiale. Eni ha recentemente sottoscritto una partnership con MGX degli Emirati Arabi per costruire in Italia campus di data center AI con una potenza che potrà raggiungere 1 Gigawatt.

Il primo progetto prevede un campus da 500 MW situato proprio accanto all’attuale infrastruttura di Ferrera Erbognone. Mazzarelli ammette la portata della sfida: «l’idea di un campus da 500 MW mi ha inizialmente spaventato, pensando che il nostro Green Data Center originale era da 30 MW, ma il riscontro che stiamo avendo dal mercato degli hyperscaler, dalla Pubblica Amministrazione e da chi vuole realizzare delle AI Factory è fortissimo».

Un elemento distintivo di questo progetto è l’indipendenza energetica. La struttura non graverà sulla rete nazionale poiché utilizzerà energia autoprodotta tramite una nuova centrale turbogas dotata di sistema CCS (Carbon Capture and Storage) per la cattura della CO2, collegata al progetto di stoccaggio di Ravenna. Questo approccio, basato sulla cosiddetta «energia blu», permette di conciliare le enormi necessità energetiche dell’AI con la transizione ecologica. L’ambizione finale è chiara: «vogliamo permettere all’Italia di partecipare a una partita di dimensioni globali, attraendo investimenti non solo sulle infrastrutture, ma anche sulle tecnologie e sui servizi correlati».

Resilienza e “multiculturalità” tecnologica: l’approccio di Unipol

Il Gruppo Unipol interpreta la gestione dei data center come una piattaforma di servizi integrata per un ecosistema complesso. Riccardo Perrotta, Head of IT Service, Operations & Infrastructure di Unipol, chiarisce che l’infrastruttura proprietaria è al servizio di «32 aziende differenti che spaziano tra assicurazioni, sanità, hotel, auto e così via». In questo contesto, l’obiettivo non è semplicemente la conservazione del dato, ma la creazione di valore operativo.

Perrotta sottolinea la necessità di superare la visione tradizionale dell’hardware: «vogliamo che il data center diventi una piattaforma di erogazione di servizi e non solo una “scatola di ferro”». Questa trasformazione passa attraverso il concetto di «multiculturalità tecnologica», dove diverse architetture devono coesistere per servire workflow complessi che includono migliaia di server e sistemi mainframe.

Cloud Ibrido e automazione: il bilanciamento tra vecchio e nuovo

L’evoluzione dei data center in Unipol si fonda sul modello del Cloud Ibrido. La strategia non prevede l’abbandono delle tecnologie legacy, ma la loro integrazione: «continuiamo a credere nel mainframe per i forti carichi di lavoro computazionale, mentre usiamo il cloud per la flessibilità operativa e la scalabilità variabile». Questo approccio permette di accedere alle capability fornite dai Cloud Service Provider senza rinunciare al controllo interno. Perrotta dichiara apertamente: «viviamo il mondo ibrido al 100%».

La gestione di questa complessità richiede strumenti avanzati di monitoraggio e automazione. Unipol ha creato un Data Lake per ottenere «visibilità su tutto ciò che succede, non solo a livello di bit e byte ma anche di componenti, per capire quali benefici la piattaforma stia dando al business».

Un passo avanti decisivo è stato compiuto nel giugno 2025, quando una piattaforma di intelligenza artificiale ha sostituito la tradizionale Control Room per la gestione dell’erogazione del servizio. La logica adottata è pragmatica: «effettuare l’addestramento sul cloud e portare poi l’esecuzione in produzione on-premise», assicurando elasticità totale senza legarsi a un singolo fornitore, poiché «non investiamo sul singolo LLM (Large Language Model), che cambia ogni settimana, ma sulla piattaforma di gestione».

La gestione del rischio e la sovranità dei dati

Un tema centrale nella gestione dei data center moderni è il rischio geopolitico. Le attuali turbolenze internazionali impongono una vigilanza costante, poiché «potrebbero portare a incrementi dei costi di gestione tra il 20% e il 40% se non gestiti correttamente». Mantenere il controllo sull’infrastruttura permette di mitigare queste fluttuazioni e garantire la resilienza necessaria a un gruppo che gestisce workflow multisettoriali.

L’esperienza di Unipol dimostra inoltre come una revisione profonda dei modelli di servizio possa generare efficienze significative. Perrotta cita il successo del progetto “Fenice”, attraverso il quale l’esternalizzazione mirata e l’ottimizzazione del data center hanno permesso di «ridurre i costi IT del 20% e migliorare la disponibilità del servizio IT dal 96% al 99,6%». Questi dati confermano che l’eccellenza nei data center aziendali non è solo una questione di hardware, ma di governance e processi.

Le strategie di Eni e Unipol mostrano due volti complementari dell’innovazione infrastrutturale italiana. Se da un lato il Paese punta a diventare un hub di potenza di calcolo per l’intelligenza artificiale globale, dall’altro le grandi imprese consolidano modelli di gestione ibridi e resilienti per servire mercati domestici diversificati. Come evidenziato dai risultati della ricerca del Politecnico di Milano, il mercato dei data center in Italia sta vivendo un «cospicuo aumento degli investimenti», rendendo queste infrastrutture un asset strategico imprescindibile per la competitività internazionale del Paese.

guest
0 Commenti
Più recenti Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati