La crescita dell’intelligenza artificiale non si misura più soltanto in termini di capacità di calcolo. La vera variabile che decide il successo dei progetti è la gestione dei dati. Senza un’infrastruttura capace di supportare il lavoro delle GPU, anche gli investimenti più ingenti rischiano di produrre risultati modesti. È questa la visione portata da Paul Bloch, President e Co-founder di DDN (DataDirect Networks) – società californiana specializzata nelle soluzioni di storage – durante il suo intervento all’evento AI, HPC & QUANTUM – Reshaping the Technology Landscape, promosso da E4 Computer Engineering. Un contesto che il CEO Cosimo Damiano Gianfreda ha definito «un viaggio verso il futuro», sottolineando il valore di HPC, intelligenza artificiale e quantum computing come strumenti per rafforzare l’indipendenza tecnologica europea.
Indice degli argomenti
GPU e dati: due forze che devono crescere insieme
Il mercato globale corre verso una crescita senza precedenti nella produzione di GPU. Nei prossimi anni si stima l’arrivo di milioni di nuovi processori. Bloch ha parlato di una «rivoluzione a velocità altissima». Tuttavia, ha ricordato che «se non si dispone di sistemi dati efficienti, le GPU non restituiscono il loro valore».
Il data storage per AI rappresenta una frazione minima del costo di un’infrastruttura, circa il 5%. Eppure, secondo Bloch, è in grado di aumentare l’efficienza complessiva fino al 20%. L’architettura dei dati diventa quindi un moltiplicatore di valore, in grado di trasformare l’investimento in calcolo in ritorni concreti.
Una nuova economia da trilioni di dollari
Bloch ha descritto l’attuale fase come la nascita di una «multi-trillion dollar economy» che ruota attorno ai modelli fondazionali e alla gestione dei dati. L’adozione di queste tecnologie non riguarda più solo i laboratori di ricerca, ma settori strategici dell’economia reale.
La finanza, ad esempio, ha vissuto un cambio di paradigma. «Due anni fa un trader mi avrebbe detto che non avrebbe mai comprato una GPU», ha ricordato Bloch. «Oggi ne acquistano decine di migliaia». Il settore sanitario vede nell’AI uno strumento per ridurre costi in crescita e migliorare la personalizzazione delle cure. Nell’automotive, aziende come Tesla, Volvo, Ferrari e Fiat utilizzano simulazioni e digital twin per ottimizzare la produzione e sviluppare sistemi di guida autonoma.
HPC e AI: la convergenza delle competenze
Secondo Bloch, la distanza tra HPC e AI si riduce rapidamente. «Un esperto HPC è già un esperto AI», ha affermato. Le competenze maturate nel calcolo ad alte prestazioni offrono infatti gli strumenti necessari per affrontare i carichi di lavoro dell’intelligenza artificiale.
Un esempio arriva dalla Francia. Idris, uno dei principali supercomputer nazionali, ha visto il 70% delle sue risorse utilizzate in attività AI pochi mesi dopo l’avvio dei lavori. Questa transizione dimostra come la comunità HPC possa diventare un attore chiave nello sviluppo di infrastrutture AI in Europa.
Sovranità digitale e urgenza europea
Gli Stati Uniti e la Cina investono con una velocità impressionante. L’Europa, invece, procede con più lentezza. Secondo Bloch, senza una spinta decisa nei processi di procurement e negli investimenti pubblici, i governi rischiano di essere superati dalle grandi aziende private.
In Italia, però, non mancano segnali incoraggianti. DDN collabora con realtà come ENI, Ferrari e importanti università, tra cui Bologna e Milano. Per Bloch, questi progetti sono un esempio di come il Paese possa contribuire alla costruzione di un ecosistema AI competitivo.
Il richiamo alla sovranità tecnologica è stato sottolineato anche da Cosimo Damiano Gianfreda: «HPC, intelligenza artificiale e quantum computing devono ridurre la dipendenza europea da altre aree del mondo».
Tecnologie di data storage per AI: dal lungo termine all’immediatezza
Per Bloch, il modello HPC tradizionale appartiene al passato. Un tempo occorrevano anni per progettare, acquistare e avviare un sistema. Oggi la finestra temporale si misura in settimane. Un’infrastruttura AI deve entrare in funzione quasi subito, altrimenti diventa un costo improduttivo.
«Soluzioni come Exascaler e Infinia rispondono a questa esigenza – commenta Bloch -. Queste tecnologie consentono letture e scritture fino a 20 terabyte al secondo e riducono drasticamente i tempi di accesso ai dati. In alcuni casi, operazioni che richiedevano minuti si completano in pochi secondi».
L’impatto emerge con chiarezza nei test condotti in ambiente AWS. Qui, l’adozione di infrastrutture di data storage per AI ha ridotto i tempi di simulazione di 22 volte. Il risparmio sui costi GPU ha raggiunto un terzo della spesa complessiva.
L’era dei dati non strutturati
Bloch ha definito l’attuale fase come l’ingresso nell’era dei dati non strutturati. Non si tratta più soltanto di testi. Le immagini e, soprattutto, i video diventano la nuova materia prima per i modelli generativi. Il text-to-video, in particolare, richiederà capacità di gestione e archiviazione enormi.
Per supportare questa crescita, emergono le AI giga factory. Queste strutture integrano potenza di calcolo, data storage per AI e rete. Rappresentano la risposta industriale alla domanda crescente di risorse, con capacità di sostenere modelli addestrati su centinaia di migliaia di GPU.
Italia e prospettive globali
Le collaborazioni già attive in Italia mostrano come il Paese sia parte integrante di questa trasformazione. Tuttavia, il limite più grande resta la disponibilità energetica. Oggi i data center devono raggiungere dimensioni da centinaia di megawatt, se non da un intero gigawatt, per sostenere i carichi richiesti dall’AI.
La sfida non riguarda solo la costruzione di infrastrutture più potenti, ma anche la capacità di integrarle in un ecosistema che unisca ricerca, industria e governance. È qui che l’Italia e l’Europa giocano una partita decisiva, con la possibilità di costruire una sovranità digitale che non dipenda esclusivamente da attori esterni.