scenari

Dal cloud al “Critical Computing”: perché la potenza di calcolo diventa un asset strategico



Indirizzo copiato

La capacità computazionale non è una commodity e ha una catena del valore molto più lunga che in passato. Dalle Big Tech ai data center territoriali, fino al quantum computing, l’analisi del Center for Digital Envisioning del Politecnico di Milano mostra come il controllo delle infrastrutture diventi centrale per la sovranità digitale. E sulla sfondo…

Pubblicato il 12 gen 2026



trasformazione digitale zerouno

Per decenni abbiamo considerato la potenza di calcolo come una risorsa quasi invisibile, una commodity accessibile a chiunque tramite il cloud, simile all’elettricità che scorre nelle nostre case.

Oggi, tuttavia, la trasformazione digitale sta radicalmente cambiando questo paradigma, rendendo le infrastrutture computazionali non più un semplice servizio di supporto, ma l’asset strategico fondamentale su cui si giocano gli equilibri economici e geopolitici del futuro.

Questa evoluzione, che proietta lo sguardo verso il 2035, è stata al centro delle analisi presentate durante il convegno di presentazione della ricerca del Center for Digital Envisioning degli Osservatori Digital Innovation del Politecnico di Milano.

Attraverso un’analisi rigorosa di segnali di mercato, acquisizioni e trend tecnologici, è emerso come la competizione globale si stia spostando dalle semplici applicazioni software alla capacità di controllare l’intera filiera del calcolo e la qualità del dato.

Il “Critical Computing” al centro della trasformazione digitale

Se fino a pochi anni fa l’attenzione era focalizzata quasi esclusivamente sulle applicazioni visibili all’utente finale, oggi la vera partita della trasformazione digitale si gioca nelle fondamenta.

Come ha sottolineato Marina Natalucci, Direttore del Center for Digital Envisioning, durante il suo intervento, stiamo assistendo all’affermazione del “Critical Computing”. La computazione non può più essere vista come una risorsa indifferenziata; al contrario, «ha una catena del valore estremamente lunga […] che è estremamente strategica sia da un punto di vista aziendale sia da un punto di vista politico-istituzionale». Questa criticità emerge con forza perché «l’economia sarà sempre più digitale» e i carichi di lavoro, come quelli richiesti dall’intelligenza artificiale, «richiederanno una computazione sempre più sofisticata».

Le aziende e le istituzioni si stanno rendendo conto che la capacità di calcolo è il motore fisico dell’economia immateriale. Non è un caso che i segnali raccolti dall’Osservatorio mostrino una convergenza netta verso questo scenario: le grandi Big Tech stanno integrando verticalmente la propria filiera, acquisendo aziende che producono componenti hardware specifici. Un esempio citato durante la presentazione è l’acquisizione da parte di Google di startup come Provino, specializzate nella creazione di chip specifici per l’intelligenza artificiale. Questo dimostra come la trasformazione digitale non riguardi più solo il software, ma richieda un presidio fisico e tecnologico sempre più profondo.

La dicotomia dei data center

All’interno di questo scenario, la morfologia stessa delle infrastrutture sta cambiando. Si osserva una dicotomia interessante nello sviluppo dei data center. Da un lato, assistiamo a una spinta verso la dispersione e la miniaturizzazione: la capacità di calcolo si avvicina sempre più all’utente finale e ai dispositivi, permettendo ai sensori e agli oggetti intelligenti di elaborare informazioni in loco. Dall’altro lato, la necessità di addestrare modelli di intelligenza artificiale sempre più potenti richiede la creazione di enormi hub territoriali.

Queste grandi infrastrutture centralizzate diventano i nuovi bastioni della sovranità tecnologica. Come ha affermato Natalucci, i data center «non sono più semplicemente degli spazi di calcolo, ma sono le fondamenta della nostra economia digitale». Essi rappresentano oggi «il cuore della sovranità digitale, quindi le fondamenta fisica dove si costruisce il controllo, il presidio dell’economia digitale».

Tuttavia, mentre la distribuzione fisica dei server potrebbe apparire capillare, l’intelligenza e il controllo di queste reti rimangono fortemente centralizzati. Il Cloud, che rappresenta la modalità principale con cui le aziende accedono a tecnologie innovative come l’AI e il Quantum Computing, è oggi concentrato nelle mani di pochissimi provider americani. Per mitigare i rischi di questa dipendenza e garantire una trasformazione digitale sostenibile e sicura, le aziende europee e le istituzioni stanno cercando di adottare modelli ibridi.

Un segnale tangibile di questa tensione competitiva e della strategicità del territorio è rappresentato dagli investimenti diretti delle grandi compagnie americane in Europa. È stato evidenziato, ad esempio, come AWS (Amazon Web Services) abbia annunciato investimenti per 1,2 miliardi di euro solo per l’apertura di nuovi Data Center in Italia. Questo conferma che la sovranità digitale passa inevitabilmente per la presenza fisica delle infrastrutture sul territorio nazionale, un elemento imprescindibile per qualsiasi strategia di trasformazione digitale che voglia definirsi resiliente.

La scommessa del Quantum Computing

Se il cloud e i data center rappresentano il presente consolidato, la vera “wild card” che potrebbe scardinare gli equilibri attuali è il Quantum Computing. Secondo le analisi del Center for Digital Envisioning, questa tecnologia presenta ancora un grado di incertezza elevato, ma possiede un potenziale dirompente. Non sappiamo ancora quale standard tecnologico prevarrà nei prossimi dieci anni, ma sappiamo che l’Europa sta cercando di giocare la sua partita per non rimanere schiacciata.

L’ecosistema del Quantum vede una competizione accesa non solo tra le Big Tech americane, ma anche con nuovi attori emergenti e iniziative istituzionali europee. Un caso emblematico citato da Marina Natalucci è quello della startup italiana Ephos, che ha ricevuto un finanziamento di 40 milioni di euro nell’ambito del “Chips Act” per lo sviluppo di chip fotonici. Questo dimostra che esistono spazi di manovra per creare una filiera competitiva anche nel Vecchio Continente, a patto di investire risorse ingenti in tecnologie di frontiera che saranno abilitatori chiave della prossima fase della trasformazione digitale.

Enriched Data: verso il gemello digitale della realtà

Parallelamente all’evoluzione dell’hardware, cambia radicalmente la natura e l’utilizzo dei dati. Non siamo più nell’era della semplice “Data Collection”, dove l’obiettivo era accumulare quante più informazioni possibili. Siamo entrati nella fase degli “Enriched Data”, o dati arricchiti. La pervasività della sensoristica e la capacità computazionale diffusa permettono oggi di trasformare flussi di dati grezzi in modelli complessi.

L’obiettivo ultimo di questa evoluzione è la creazione di Digital Twin sempre più sofisticati. Natalucci ha descritto questa transizione come il passaggio «da una semplice collezione analisi a qualcosa che sarà che chiamiamo digital twin, che sarà in grado di codificare perfettamente la realtà in cui ci troviamo in modo sostanzialmente continuo». La sfida è quella di «passare da una simulazione statica, da una rappresentazione statica della realtà a una simulazione dinamica» , arrivando potenzialmente ad avere «una copia digitale della realtà in cui viviamo». Questo passaggio dal monitoraggio alla simulazione è il cuore della nuova trasformazione digitale guidata dai dati.

Dalla raccolta alla simulazione dinamica

Le implicazioni di questo salto tecnologico sono vaste. Le aziende non si limitano a osservare il passato attraverso i dati, ma possono prevedere scenari futuri con una precisione inedita. Questo è reso possibile dalla convergenza tra la raccolta dati (IoT, dispositivi indossabili) e la potenza di calcolo (HPC e AI). Durante l’evento è stato citato l’accordo strategico tra Siemens e Nvidia, volto proprio all’applicazione dell’AI e del metaverso industriale per creare gemelli digitali nel settore manifatturiero. Questo tipo di partnership segnala che la capacità di simulare la realtà diventerà un vantaggio competitivo imprescindibile.

Tuttavia, questa abbondanza di dati e capacità di calcolo porta con sé nuove sfide di governance. Se da un lato la tecnologia permette di creare modelli perfetti, dall’altro la proprietà e la gestione di questi “dati arricchiti” rimangono questioni aperte. Attualmente, l’intelligenza estratta dai dati è concentrata nelle piattaforme dei grandi player. La trasformazione digitale dei prossimi dieci anni dovrà quindi affrontare il tema della redistribuzione del valore: i modelli decentralizzati, la Blockchain e la tokenizzazione potrebbero offrire alternative per restituire all’utente il controllo sui propri dati, anche se i segnali di mercato su questo fronte appaiono ancora divergenti e meno maturi rispetto alla consolidata potenza delle piattaforme centralizzate.

Lo scenario delineato per il 2035 non è deterministico, ma dipenderà da come le aziende e le istituzioni sapranno governare queste leve tecnologiche. La trasformazione digitale non è un destino che si subisce, ma un processo che si costruisce investendo oggi nelle infrastrutture critiche e nella capacità di modellare i dati, bilanciando la necessità di innovazione globale con l’urgenza di costruire una sovranità tecnologica locale.

guest
0 Commenti
Più recenti Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati