SPONSORED STORY

La storia dei data center intelligenti: l’AIOps come ultima frontiera della governance



Indirizzo copiato

Da infrastrutture statiche a ecosistemi dinamici, i data center intelligenti sono governati da nuove logiche di automazione e orchestrazione. L’AIOps introduce una dimensione cognitiva nelle operation IT, trasformando la gestione da attività reattiva a processo predittivo e adattivo. Cunietti (Var Group): “L’AIOps è l’esoscheletro cognitivo che amplifica e potenzia le competenze delle squadre IT”.

Pubblicato il 21 nov 2025


7circle Point of View

data center AI

Parlare oggi di data center intelligenti significa spostare il focus dall’hardware al software, riconoscendo come l’infrastruttura IT non sia più un’entità fisica da monitorare, ma un sistema dinamico e reattivo, capace di apprendere e ottimizzarsi. La progressiva trasformazione dei data center in ecosistemi software governati da logiche di automazione, virtualizzazione e cloudificazione ha spianato la strada a nuovi modelli di orchestrazione data driven. In questo quadro, l’AIOps (AI + operations) rappresenta il nuovo capitolo della governance: un framework operativo che combina machine learning e capacità decisionale per interpretare in tempo reale i dati operativi e reagire agli eventi in modo più rapido e coerente con le policy di sistema.

«Data center è una parola che può essere interpretata in molti modi – osserva Mariano Cunietti, Head of Solution & Delivery di Var Group) -. Siamo abituati a pensarlo come a un’infrastruttura dove ci sono le macchine il cui valore veniva misurato in termini di potenza elaborativa e disponibilità fisica delle risorse. Oggi, l’hardware è una commodity. Il data center moderno è intelligente perché il baricentro del valore si è spostato progressivamente verso il livello logico, dove si costruisce la vera efficienza operativa e predittiva del sistema. Cosa è cambiato? La capacità del software di governarne i comportamenti: orchestrare i flussi, adattarsi agli eventi, automatizzare diagnosi e interventi grazie a una componente sistemica di tipo cognitivo che si auto-organizza e apprende dalle proprie operazioni».

Anni ‘90: i prodromi della trasformazione infrastrutturale del data center

Per capire meglio la portata di questa innovazione bisogna ripercorrere all’indietro la storia dei data center. L’estensione delle logiche di astrazione ha inaugurato l’era dei modelli software-defined, distribuiti e sempre più intelligenti. La virtualizzazione è diventata anche una leva di sostenibilità operativa, spinta dal green IT. In parallelo, le grandi web company, da Google a Facebook, hanno introdotto un nuovo paradigma architetturale: data center aperti, scalabili e progettati per ridurre al minimo la dipendenza dalla componente fisica, massimizzando stabilità e resilienza del servizio. Dalle prime sale server, concepite per garantire continuità e performance, si è passati a una visione sempre più leggera e modulare dei data center.

«Una volta il server era un’unità monolitica, con un’identità forte. Ancora oggi in Italia 6 server su 10 si chiamano “Gandalf” o con il nome di altri personaggi famosi – ironizza Cunietti -. Ai tempi si davano ai server nomi da eroi o maghi perché, di fatto, dovevano tenere in piedi tutto da soli ed erano come dei pets da accudire. Il passaggio al cloud e ai microservizi ha cambiato l’approccio: niente più Gandalf, ma instance-002, 003 e via dicendo, con repliche senza volto. È il paradigma cattle, not pets: non un eroe che regge tutto, ma n istanze intercambiabili, orchestrate e sostituibili al volo: è così che si costruiscono resilienza e scalabilità».

Anni 2000: Verso API e microservizi

La separazione tra l’hardware e il software è diventata la leva strategica per semplificare e automatizzare la gestione infrastrutturale. Da un lato l’hardware, sempre più standardizzato, si è trasformato in uno strato di esecuzione intercambiabile. Dall’altro, il software ha assunto il ruolo di orchestratore intelligente, capace di governare ambienti eterogenei e dinamici. Il salto quantico è arrivato quando la potenza di calcolo ha smesso di risiedere nel singolo server per distribuirsi su un insieme di funzioni autonome.

«Amazon, applicando la legge di Conway, ha scomposto il monolite applicativo in microservizi indipendenti con team multidisciplinari, ognuno responsabile di una funzione, capaci di dialogare attraverso API – ricorda Cunietti. Dietro quella legge, formulata nel 1968 dal programmatore Melvin Conway, c’era un principio semplice ma dirompente: l’architettura di un sistema tende a riflettere la struttura organizzativa di chi lo progetta. Il che significa che, se un’azienda sviluppa software attraverso più team separati, il risultato sarà un sistema composto da moduli che rispecchiano quelle stesse divisioni. Da quell’intuizione è nata la logica delle architetture distribuite: un nuovo modo di progettare l’infrastruttura, dove la distribuzione logica delle funzioni consente di costruire ambienti più rapidi nel rispondere ai cambiamenti».

Anni ‘10: la svolta della containerizzazione

I microservizi trasformano il data center in un sistema relazionale, dove la cooperazione tra le parti conta più della potenza dei singoli nodi. È l’inizio della transizione verso un’infrastruttura intelligente, in cui ogni componente partecipa a una rete di processi interconnessi capace di garantire continuità operativa anche in presenza di anomalie o carichi variabili. È con la containerizzazione che il data center compie il passaggio definitivo da infrastruttura a piattaforma.

«La containerizzazione è stata una rivoluzione – fa notare Cunietti -. Ogni applicazione diventa un insieme di micro-componenti isolati ma interconnessi, orchestrati da software che distribuiscono i carichi, monitorano le prestazioni, reagiscono in tempo reale ai guasti e riducono l’intervento umano al minimo. Il risultato è un ambiente in costante movimento, dove la gestione manuale non è più sostenibile e dove il valore dipende dalla capacità di correlare i dati operativi e prendere decisioni rapide e coerenti. L’intuizione si deve a Solomon Hykes, non a caso fondatore di Docker, mentre osservava i container nel porto di San Francisco. Come i container fisici hanno risolto il problema della standardizzazione nella logistica, questo modello poteva essere replicato nella “logistica” (cioè la migrazione) delle applicazioni, usando alcune funzioni di segregazione native del kernel di Linux».

2014: Docker e Kubernetes alle origini dell’intelligenza operativa

Docker ha aperto la strada a un nuovo modo di concepire i data center: non più infrastrutture monolitiche, ma ambienti modulari composti da applicazioni impacchettate in container leggeri, autonomi e trasportabili da un contesto all’altro. Questa logica ha permesso di separare in modo definitivo lo sviluppo dall’esecuzione, rendendo i data center più flessibili, scalabili e adattivi. Qui si spiega la genesi di Kubernetes, l’orchestratore che gestisce questo ecosistema di container, assegnando risorse, bilanciando carichi, verificando lo stato dei servizi e ripristinando automaticamente ciò che non funziona

«In greco antico kubernetes significa timoniere, ed è l’immagine perfetta di un sistema che non comanda, ma governa la rotta di un’infrastruttura distribuita – puntualizza Cunietti -. Al crescere del numero dei container nella timeline dei data center è emersa l’esigenza di un’intelligenza in grado di governarli in modo dinamico, distribuendo risorse, bilanciando carichi e garantendo continuità di servizio anche in presenza di anomalie. È qui che entra in gioco l’AIOps: un livello cognitivo che legge, interpreta e reagisce agli eventi, correlando dati, individuando anomalie, anticipando problemi e, in molti casi, intervenendo in autonomia».

Anni ‘20: l’AIOps come motore cognitivo dei data center intelligenti

I data center di ultima generazione generano una quantità crescente di metriche, log e segnali che generano un rumore di fondo a flusso continuo che nessun operatore umano può più analizzare in tempo reale. L’AIOps nasce per razionalizzare e governare l’onda montante dei dati. In che modo? Collegando velocemente eventi apparentemente scollegati, individuando pattern ricorrenti e intervenendo prima che si manifesti un’anomalia. È su questa logica che Var Group ha costruito il proprio modello operativo: un approccio che integra automazione, machine learning e capacità decisionale per rendere i data center realmente intelligenti, capaci di auto-diagnosticarsi e ottimizzarsi in modo continuo.

«La prima fase è quella dell’automazione: ridurre al minimo le azioni manuali, standardizzare i processi e rendere ripetibili le procedure – illustra Cunietti -. Poi subentra il machine learning, che osserva il comportamento dei sistemi, riconosce le ricorrenze e distingue un’anomalia vera da un semplice picco di carico. Il passo successivo è la capacità di correlare eventi complessi: mettere in relazione log, metriche, ticket e knowledge base per capire l’origine del problema. Quando rileva uno scostamento, il sistema può chiedere a un modello linguistico di analizzare i log e spiegare cosa sta accadendo, oppure proporre o eseguire una remediation. In questo modo la diagnostica diventa predittiva e il troubleshooting quasi istantaneo».

Dal metodo alla pratica: la visione di Var Group

Dalla teoria all’applicazione, l’AIOps diventa una leva concreta di governance operativa. È su questa idea che Var Group ha costruito il proprio modello di data center intelligente. L’obiettivo non è sostituire le competenze umane, ma aumentarle.

«Grazie al supporto dell’AIOps le squadre IT non devono più presidiare ogni singola anomalia, ma gestire un ecosistema che apprende, si ottimizza e reagisce da solo – chiarisce Cunietti -. Il framework diventa l’esoscheletro cognitivo che potenzia le competenze umane. Il data center intelligente riduce la distanza tra evento e risposta, trasformando la complicazione in controllo. Noi abbiamo reso concreto questo concetto con un proof of concept operativo. Il sistema di AIOps analizza metriche e log, genera correlazioni, propone azioni correttive e, quando serve, le esegue. È un motore cognitivo in grado di diagnosticare, spiegare e rimediare. I componenti sono tutti pronti: ciò che serve è scalare la potenza di calcolo, che può risiedere in una GPU farm interna o su provider pubblici. L’obiettivo è rendere la gestione infrastrutturale proattiva e autonoma, in modo che i team possano concentrarsi sul valore del servizio anziché sull’urgenza degli incident».

Dalla gestione al servizio: come l’AIOps arriva al cliente

L’AIOps, nel modello Var Group è un fattore evolutivo dei servizi IT gestiti. L’approccio parte dai team che presidiano quotidianamente l’infrastruttura: help desk, system & network operation center e specialisti on site. È qui che l’intelligenza operativa diventa visibile al cliente, migliorando la qualità del servizio e la tempestività delle risposte.

«Integriamo l’AIOps direttamente nel modello di erogazione dei servizi: non proponiamo un software, ma un modo diverso di gestire le operation – sottolinea Cunietti -. Il primo supporto che cambia l’esperienza utente è l’help desk: l’intelligenza analizza in tempo reale ticket, log e metriche e suggerisce priorità o possibili soluzioni. Questo ci permette di aprire un incident prima che l’utente si accorga del problema o di chiudere automaticamente le segnalazioni ridondanti. L’AIOps serve a ridurre la latenza organizzativa, automatizzare la diagnosi e restituire alle persone la possibilità di agire in modo consapevole, concentrandosi su ciò che genera valore invece che sulla reazione all’urgenza».

2025 e oltre: data center intelligentissimi

L’AIOps è la direzione verso cui si muovono i grandi ecosistemi digitali: architetture in cui ogni componente diventa consapevole del proprio ruolo, dialoga con le altre e coopera per mantenere l’equilibrio del sistema. La trasformazione non è solo tecnologica: riguarda il modo in cui le organizzazioni concepiscono la governance dei sistemi complessi.

«L’evolutiva sarà il contributo dell’AI multiagentica, dove più intelligenze lavorano insieme, ciascuna specializzata in un ambito preciso – conclude Cunietti -: una monitora, una analizza, una propone soluzioni, un’altra valuta l’impatto. È un modello collaborativo, non centralizzato, in cui la conoscenza è distribuita e continuamente aggiornata. Questo approccio porta alla self-healing infrastructure: ambienti capaci di autoripararsi, riallocare risorse e mantenere l’equilibrio operativo senza intervento umano. Man mano che i modelli diventeranno sempre più istruiti e contestuali, vedremo sistemi in grado di migliorare da soli, come organismi viventi che apprendono dal proprio metabolismo digitale e, in ultima analisi, cibernetici. Non è fantascienza: è l’evoluzione naturale delle logiche AIOps».

Speciale Digital Awards e CIOsumm.it

Tutti
Update
Ricerche
Keynote
Leggi l'articolo AI e Customer Experience: oltre la tecnologia, la relazione umana
round table
AI e Customer Experience: oltre la tecnologia, la relazione umana
Leggi l'articolo GenAI: dai dati alla cultura aziendale, come creare valore oltre l’hype
intelligenza artificiale
GenAI: dai dati alla cultura aziendale, come creare valore oltre l’hype
Leggi l'articolo Edge AI: quando l’intelligenza artificiale pensa veloce e agisce da vicino
intelligenza artificiale
Edge AI: quando l’intelligenza artificiale pensa veloce e agisce da vicino
Leggi l'articolo CIO e AI, cosa è veramente “essenziale”?
la ricerca
CIO e AI, cosa è veramente “essenziale”?
Leggi l'articolo CIO e CISO: alleati o rivali? Dentro le nuove dinamiche della governance digitale
la ricerca
CIO e CISO: alleati o rivali? Dentro le nuove dinamiche della governance digitale
Leggi l'articolo Dalle risorse umane alle “umane risorse”: il nuovo paradigma della leadership empatica
CIO & management
Dalle risorse umane alle “umane risorse”: il nuovo paradigma della leadership empatica
Leggi l'articolo Digital360 Awards 2025: ecco i progetti premiati dai CIO italiani
L'evento
Digital360 Awards 2025: ecco i progetti premiati dai CIO italiani
Leggi l'articolo Agentic AI e High-Performance IT: la rotta per i CIO tra opportunità e sfide
La guida
Agentic AI e High-Performance IT: la rotta per i CIO tra opportunità e sfide
Leggi l'articolo Digital360 Awards e CIOsumm.IT: il futuro digitale passa da Lazise 
L’evento
Digital360 Awards e CIOsumm.IT: il futuro digitale passa da Lazise 
Leggi l'articolo Digital360 Awards e CIOsumm.IT 2025: l’essenzialità nell’era dell’AI
Eventi
Digital360 Awards e CIOsumm.IT 2025: l’essenzialità nell’era dell’AI
Leggi l'articolo Digital360Awards e CIOsumm.it, i momenti salienti
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Leggi l'articolo AI e Customer Experience: oltre la tecnologia, la relazione umana
round table
AI e Customer Experience: oltre la tecnologia, la relazione umana
Leggi l'articolo GenAI: dai dati alla cultura aziendale, come creare valore oltre l’hype
intelligenza artificiale
GenAI: dai dati alla cultura aziendale, come creare valore oltre l’hype
Leggi l'articolo Edge AI: quando l’intelligenza artificiale pensa veloce e agisce da vicino
intelligenza artificiale
Edge AI: quando l’intelligenza artificiale pensa veloce e agisce da vicino
Leggi l'articolo CIO e AI, cosa è veramente “essenziale”?
la ricerca
CIO e AI, cosa è veramente “essenziale”?
Leggi l'articolo CIO e CISO: alleati o rivali? Dentro le nuove dinamiche della governance digitale
la ricerca
CIO e CISO: alleati o rivali? Dentro le nuove dinamiche della governance digitale
Leggi l'articolo Dalle risorse umane alle “umane risorse”: il nuovo paradigma della leadership empatica
CIO & management
Dalle risorse umane alle “umane risorse”: il nuovo paradigma della leadership empatica
Leggi l'articolo Digital360 Awards 2025: ecco i progetti premiati dai CIO italiani
L'evento
Digital360 Awards 2025: ecco i progetti premiati dai CIO italiani
Leggi l'articolo Agentic AI e High-Performance IT: la rotta per i CIO tra opportunità e sfide
La guida
Agentic AI e High-Performance IT: la rotta per i CIO tra opportunità e sfide
Leggi l'articolo Digital360 Awards e CIOsumm.IT: il futuro digitale passa da Lazise 
L’evento
Digital360 Awards e CIOsumm.IT: il futuro digitale passa da Lazise 
Leggi l'articolo Digital360 Awards e CIOsumm.IT 2025: l’essenzialità nell’era dell’AI
Eventi
Digital360 Awards e CIOsumm.IT 2025: l’essenzialità nell’era dell’AI
Leggi l'articolo Digital360Awards e CIOsumm.it, i momenti salienti
Video
Digital360Awards e CIOsumm.it, i momenti salienti

Articoli correlati