tavola rotonda

Sovranità digitale europea: perché l’autonomia si gioca sulla governance del rischio



Indirizzo copiato

La sovranità digitale passa attraverso infrastrutture, dati e sicurezza. Non si tratta solo di localizzazione del dato, ma di scelte consapevoli su cosa gestire internamente e cosa lasciare all’esterno. Cosa è emerso durante l’evento “Sovranità digitale: Italia ed Europa a prova di futuro”, organizzato da Nextwork360

Pubblicato il 12 mar 2026



Tavola rotonda Vinc 1920×1080
Aldo di Mattia (Fortinet), Veronica Leonardi (Cyberoo), Antonio Giannetto (Reevo), Massimiliano De Carolis (Sirti Digital Solutions), Alessio Branchesi (Everpure), Giuseppe Cozzolino (SUSE)

Il dibattito contemporaneo sull’autonomia tecnologica ha subito una trasformazione profonda, spostando il baricentro dalla semplice localizzazione dei dati a una più complessa governance del rischio.

Durante un recente confronto ospitato da Nextwork360 in occasione del convegno “Sovranità digitale: Italia ed Europa a prova di futuro”, è emerso come la capacità di un Paese di mantenere il controllo sui propri asset strategici dipenda da un equilibrio dinamico tra infrastrutture distribuite, sicurezza integrata e modelli di intelligenza artificiale specializzati.

Non si tratta più soltanto di decidere dove risiedano le informazioni, ma di stabilire chi detenga il potere effettivo su algoritmi, identità digitali e flussi di comunicazione che alimentano l’economia moderna.

Infrastrutture e AI

Una delle chiavi di volta per il futuro industriale dell’Unione Europea risiede nella capacità di sviluppare una via propria all’intelligenza artificiale. Il panorama globale è dominato da modelli generalisti allenati su trilioni di parametri, un campo in cui la competizione richiede investimenti e strutture difficilmente replicabili nel breve periodo nel contesto normativo europeo. Tuttavia, la strategia industriale può trovare terreno fertile nella specializzazione.

Massimiliano De Carolis, CEO di Sirti Digital Solutions, sottolinea che «L’Europa potrà difficilmente competere nei modelli generalisti, ma invece potrà dire la sua sui modelli più verticali». Questa strada passa necessariamente per la capacità computazionale distribuita all’edge e l’integrazione di modelli AI all’interno delle infrastrutture di trasmissione energetica e del tessuto industriale.

Il passaggio a un’economia basata sull’intelligenza artificiale introduce rischi nuovi legati alla proprietà intellettuale. De Carolis evidenzia l’incertezza normativa sul cosiddetto leaking dei dati: «Quanto un prompt sia proprietà intellettuale di chi l’ha originato, e quanto un output che è costruito dall’azione di diversi agenti difenda il perimetro del dato».

Le infrastrutture distribuite non garantiscono solo resilienza e ridondanza, ma rispondono a esigenze tecniche imprescindibili come la latenza. Con l’ingresso dell’AI nel mondo fisico e nella robotica, l’inferenza deve avvenire vicino all’origine del dato poiché «non è pensabile trasportare i dati da una parte all’altra dell’oceano per poi gestire dei processi produttivi».

La gestione dei dati: oltre il concetto di “serbatoio” digitale

Se per anni il centro della discussione è stato il posizionamento fisico del dato, oggi la sovranità digitale europea richiede una visione più ampia che includa il controllo normativo e la valorizzazione degli asset. Alessio Branchesi, Country Manager di Everpure, utilizza un’analogia efficace per descrivere l’evoluzione del settore: «Se i dati sono il nuovo petrolio, lo storage diventa il serbatoio». Tuttavia, la semplice memorizzazione del dato non è più sufficiente a garantire un vantaggio competitivo.

Il valore reale emerge dalla capacità di governare il dato durante tutto il suo ciclo di vita, garantendo tre pilastri fondamentali:

  • Il controllo costante del dato per evitarne lo sfruttamento da parte di soggetti terzi.
  • La resilienza delle infrastrutture di fronte a minacce esterne o guasti.
  • La piena conformità normativa in un panorama legislativo sempre più stringente.

Branchesi osserva come la digitalizzazione della Pubblica Amministrazione e dei settori data-driven, come sanità e finanza, imponga scelte strategiche chiare. La sfida è costruire architetture aperte e multicloud che permettano di spostare i carichi di lavoro in base alle necessità, mantenendo la governance sotto il controllo nazionale. Un punto critico rimane la distinzione tra infrastruttura e giurisdizione: la presenza fisica sul territorio non garantisce automaticamente l’immunità da leggi extra-UE, come il Cloud Act americano, rendendo necessaria una separazione netta tra i livelli di controllo.

Open Source e autonomia tecnologica

Un aspetto spesso sottovalutato nel dibattito sulla sovranità digitale europea è il ruolo del software. Per garantire una reale autonomia, non è sufficiente possedere l’hardware se lo stack tecnologico che lo governa è chiuso o soggetto a licenze restrittive.

Giuseppe Cozzolino, Country Manager di SUSE Italy, spiega che «l’open source è sovrano by design», poiché garantisce per definizione la trasparenza del codice e l’interoperabilità necessaria a evitare il lock-in tecnologico.

L’adozione di standard aperti permette alle aziende di non essere vincolate a un singolo vendor, un problema che oggi affligge il 90% delle realtà globali. Cozzolino suggerisce un approccio più consapevole nella scelta delle tecnologie: «Dobbiamo avere un approccio più patriottico e guardare innanzitutto a quello che abbiamo in casa, sfruttando i vantaggi dell’open source. Esistono realtà che possono offrire alternative valide ai giganti d’oltreoceano, permettendo uno switch tecnologico graduale ma deciso».

La “cassaforte digitale” e la protezione del perimetro europeo

Il concetto di sovranità non deve essere confuso con un semplice protezionismo tecnologico. Come spiega Antonio Giannetto, co-CEO di ReeVo, i dati sono l’asset strategico su cui poggia l’intera economia di un Paese e «non li possiamo né chiedere in affitto né comprare». Una “cassaforte digitale” europea deve basarsi sul posizionamento fisico dei dati nel continente, gestiti da una filiera che risponde esclusivamente a un framework normativo europeo.

La resilienza viene paragonata alla progettazione antisismica. Giannetto chiarisce che la sicurezza by design significa costruire l’infrastruttura con protezioni native anziché aggiungere “puntelli” in un secondo momento. Questo approccio include la segregazione dei dati e la fornitura di chiavi crittografiche che rendano il cliente l’unico vero proprietario della propria infrastruttura, assicurando al contempo una via di uscita percorribile nel caso si decida di cambiare operatore.

Cybersecurity: il fattore umano e la prossimità territoriale

Nella lotta contro le minacce informatiche, la componente tecnologica è solo una parte dell’equazione. Veronica Leonardi, CMO & Board Member di Cyberoo, sottolinea come la sovranità digitale europea sia intrinsecamente legata al potere negoziale e alla prossimità. Un sistema è realmente sovrano quando non dipende dalle decisioni politiche o territoriali di entità extra-UE, evitando di ripetere gli errori commessi in passato nel settore energetico.

La cybersecurity può essere il motore di questa trasformazione, valorizzando le aziende europee che comprendono le logiche del tessuto imprenditoriale locale, profondamente diverso da quello americano. Oltre all’aspetto culturale, la prossimità garantisce un rapporto più equo e democratico nelle negoziazioni contrattuali, spesso impossibili con i grandi hyperscaler.

Verso un multicloud sicuro

Nonostante la necessità di autonomia, la realtà operativa vede una convivenza tra diverse soluzioni globali e locali. Aldo Di Mattia, Cybersecurity Advisor di Fortinet, evidenzia come anche le multinazionali possano contribuire alla sovranità attraverso modelli di Sovereign SASE e Sovereign Cloud, portando le funzioni di sicurezza direttamente all’interno delle infrastrutture dei clienti per garantirne il pieno controllo.

Le priorità per le imprese nell’adozione di questi modelli includono:

  • La centralità della sicurezza fin dalle fasi di progettazione (DevOps e Infrastructure as Code) per ridurre l’errore umano.
  • La visibilità totale in ambienti multicloud, dove la mancata cooperazione tra diversi strumenti rappresenta oggi la principale criticità.
  • Il superamento della carenza di personale qualificato, una “storica e cronica mancanza di competenze” che richiede urgenti progetti di upskilling.

In un periodo storico caratterizzato da uno scenario geopolitico incandescente, dove le alleanze e le leggi nazionali vengono ridiscusse quotidianamente, la sovranità digitale europea emerge come l’unica strada percorribile per garantire stabilità e futuro al sistema economico del continente. La sfida, oltre ad essere tecnologica, è anche culturale e formativa, richiedendo una visione d’insieme che unisca sicurezza, infrastrutture e competenze umane.

La cloud repatriation è il processo di ritorno o migrazione di dati, applicazioni e workload dal cloud pubblico verso infrastrutture private o ibride. Non si tratta di un abbandono completo del cloud, ma di una rivalutazione strategica della distribuzione dei carichi di lavoro tra ambienti diversi. Questo fenomeno rappresenta una fase di maturazione nell’adozione del cloud, dove le aziende passano da un approccio cloud-first a un modello più consapevole e bilanciato, spesso definito cloud-smart, che valuta attentamente quale ambiente sia più adatto per ciascun workload specifico.

Le principali cause che spingono le aziende verso la cloud repatriation includono: costi imprevisti e difficili da controllare nel modello pay-per-use, con il cloud waste che secondo alcune analisi può superare il 50% della spesa; requisiti di compliance e sovranità digitale, con normative come GDPR, Data Act e NIS 2 che impongono controllo sulla residenza e giurisdizione dei dati; necessità di ottimizzazione delle performance per workload mission-critical che richiedono latenza ridotta e continuità operativa; e la ricerca di maggiore controllo e trasparenza sulla propria infrastruttura IT, evitando situazioni di lock-in con i grandi hyperscaler.

I dati statistici mostrano una crescente diffusione della cloud repatriation. Secondo lo State of Cloud Computing 2025 di Parallels, l’86% delle aziende sta valutando o pianificando il parziale spostamento di workload dal cloud pubblico ad altri ambienti. In Italia, l’Osservatorio del Politecnico di Milano ha registrato un aumento significativo, con il 35% delle organizzazioni che sta valutando progetti di repatriation, contro il 20% dell’anno precedente. Il Private Cloud Outlook 2025 di Broadcom riporta che il 69% delle aziende sta valutando la repatriation dei propri workload dal cloud pubblico a quello privato, e un terzo l’ha già fatto. Inoltre, secondo Broadcom, il 54% delle aziende considera il cloud privato la destinazione preferita per i nuovi workload.

L’approccio al cloud computing ha subito un’evoluzione significativa negli ultimi anni. Inizialmente, si è passati dalla diffidenza iniziale verso il cloud, legata soprattutto a questioni di sicurezza e controllo, a un’adozione quasi incondizionata spinta dalla promessa di flessibilità, scalabilità e ottimizzazione dei costi. Successivamente, è emerso un approccio più maturo e consapevole, con il passaggio da un modello cloud-first incentrato sulle infrastrutture e i servizi degli hyperscaler globali, a un modello cloud-smart che bilancia i vantaggi del cloud con un’ottimizzazione IT pratica e a lungo termine. Oggi si sta affermando un approccio workload-first, che assegna a ciascun carico di lavoro l’ambiente più adatto in base a valutazioni di affidabilità, compliance e costi, favorendo modelli ibridi, multicloud ed edge-to-cloud.

Il cloud privato offre numerosi vantaggi rispetto al cloud pubblico, soprattutto per workload critici. Tra i principali benefici troviamo: maggiore controllo e governance dell’infrastruttura IT; performance ottimizzate e prevedibili grazie a risorse dedicate e configurazioni su misura; migliore sovranità digitale con certezza sulla localizzazione e giurisdizione dei dati; costi più prevedibili e trasparenti nel lungo periodo; e rapporto diretto con il provider, che garantisce supporto localizzato e personalizzato. Questi vantaggi rendono il cloud privato particolarmente adatto per applicazioni mission-critical, dati sensibili e workload con requisiti specifici di compliance.

Implementare una strategia di cloud repatriation efficace richiede un approccio strutturato che inizia con un assessment approfondito dell’infrastruttura esistente, mappando dipendenze applicative, vincoli tecnologici e contrattuali. È fondamentale definire una strategia chiara che valuti tutte le variabili in gioco, dai costi effettivi alle dipendenze tecniche, dall’impatto sui processi interni fino ai contratti attivi. La fase di progettazione dell’ambiente target è cruciale e deve bilanciare performance, sicurezza, data protection e sostenibilità economica. Prima della migrazione completa, è consigliabile sviluppare un Proof of Concept con applicazioni meno critiche per verificare il comportamento dell’ambiente target. Infine, dopo la migrazione, è essenziale verificare che l’ambiente risponda alle aspettative e implementare un sistema di governance continua che garantisca performance, sicurezza e continuità nel tempo.

Nella scelta di un provider per progetti di cloud repatriation, è fondamentale considerare diversi criteri chiave. La sovranità digitale è diventata un fattore determinante, garantendo certezza sulla localizzazione dei dati e sulla giurisdizione applicabile. La sicurezza è un altro criterio essenziale, valutando certificazioni (ISO 27001, ISO 27017), politiche di controllo degli accessi e processi di gestione degli incidenti. È importante anche considerare l’interoperabilità e la riduzione del rischio di lock-in, preferendo provider che adottano tecnologie open source. Infine, costi e performance restano criteri fondamentali, cercando modelli di pricing chiari e trasparenti e valutando la capacità del provider di garantire prestazioni stabili e prevedibili per workload critici.

Il ruolo del cloud privato nelle strategie IT aziendali sta subendo una trasformazione significativa. Da ambiente riservato ai workload e ai dati più sensibili, sta diventando il pilastro dell’intera architettura cloud aziendale, grazie alla capacità di garantire performance ottimali, controllo dei costi e piena sovranità del dato. Secondo il Private Cloud Outlook 2025 di Broadcom, il 53% dei decision maker IT indica il cloud privato come priorità per il deployment di nuovi workload nei prossimi tre anni. Anche per i workload di AI, contrariamente a quanto si potrebbe pensare, le organizzazioni stanno scegliendo ambienti di cloud privato quasi quanto quelli di cloud pubblico (55% contro 56%). Questo cambiamento riflette una maggiore maturità nell’adozione del cloud, dove il private cloud non è più un’infrastruttura di supporto ma una risorsa core all’interno di ecosistemi IT moderni e distribuiti.

Le sfide principali nella migrazione dal cloud pubblico a infrastrutture private includono diverse complessità tecniche e organizzative. Molte aziende affrontano la migrazione come un semplice spostamento infrastrutturale, trascurando un’analisi approfondita delle applicazioni e delle loro dipendenze. La fase di assessment è spesso troppo superficiale, concentrandosi sugli aspetti tecnologici e trascurando le componenti organizzative e di governance. Un’altra sfida significativa è la gestione dei costi di egress durante la migrazione, che possono essere considerevoli quando si spostano grandi volumi di dati fuori dal cloud pubblico. Inoltre, molte organizzazioni faticano a definire una strategia di lungo periodo che integri la nuova infrastruttura privata in un percorso evolutivo coerente, rischiando di creare nuovi silos tecnologici. Infine, la migrazione richiede competenze specifiche per garantire la continuità dei servizi durante la transizione e per ottimizzare il nuovo ambiente dopo il cut-over.

La cloud repatriation non rappresenta un abbandono del cloud pubblico, ma piuttosto una rimodulazione all’interno di modelli ibridi più equilibrati. Le organizzazioni hanno capito che il modello cloud ideale è il risultato di un equilibrio dinamico tra ambienti pubblici e privati, dove ciascun workload viene collocato nell’ambiente più adeguato in funzione di requisiti specifici. L’approccio workload-first sta guidando questa evoluzione, assegnando a ciascun carico di lavoro l’ambiente più adatto in base a valutazioni di affidabilità, compliance e costi. In questo contesto, la repatriation diventa parte di una strategia più ampia che sfrutta al massimo i benefici dei modelli ibridi, multicloud ed edge-to-cloud. Il cloud pubblico viene spesso scelto per servizi generalisti come posta elettronica, telefonia o CRM, mentre si riportano in un ambiente privato tutte le applicazioni su cui vive e ruota il business, creando un ecosistema integrato che combina il meglio di entrambi i mondi.

guest
0 Commenti
Più recenti Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati