La concentrazione del potere tecnologico e l’emergere dell’AI come piattaforma stanno ridefinendo il concetto di sovranità digitale. Non si tratta più solo di dove risiedono i dati, ma di chi controlla le logiche e gli ecosistemi che li elaborano.
Il tema è stato affrontato nel dibattito conclusivo dell’incontro ospitato a Palazzo Isimbardi durante la Milano Digital Week 2025, organizzato dall’Ordine degli Ingegneri della Provincia di Milano, dove Aldo Milan (AGCOM) e Stefano Pileri (Associazione Amici della Sirti) hanno discusso il rapporto tra intelligenza artificiale, governance e indipendenza tecnologica.
Indice degli argomenti
AI come piattaforma e il rischio di concentrazione
Secondo Milan, l’AI non è solo un insieme di modelli o algoritmi, ma una piattaforma economica e infrastrutturale. Nella prospettiva di un ingegnere, la piattaforma è un’infrastruttura orizzontale su cui costruire soluzioni; per un economista, invece, è un meccanismo di intermediazione tra due mercati: quello dei fornitori e quello degli utenti finali.
È in questa intermediazione che si concentra il potere. «AWS o Google diventano gli intermediari», ha spiegato Milan, richiamando il tema dei Digital Market e Service Act europei, che disciplinano le dinamiche di concorrenza e di trasparenza delle piattaforme digitali. Ma l’equilibrio economico resta opaco: «Quando contrattualizzo un servizio su AWS, talvolta lo trovo sottocosto. È una tombola», ha detto con ironia, sottolineando la difficoltà di capire dove si crei davvero valore e dove si nascondano i sussidi incrociati.
Il primo effetto di questa piattaformizzazione dell’AI è la concentrazione. I grandi provider si collocano tra utenti, dati e modelli, governando l’accesso all’infrastruttura e imponendo standard proprietari che condizionano l’intero ecosistema.
Il lock-in tecnologico: quando l’AI diventa una gabbia
Milan ha descritto il lock-in come il secondo grande rischio sistemico. «Se utilizzo Q di AWS mi ritrovo soluzioni dentro AWS, se uso Copilot ho un lock-in dall’altra parte», ha osservato. La conseguenza è una dipendenza invisibile ma profonda: chi adotta strumenti proprietari finisce per costruire il proprio sviluppo su stack non migrabili, con costi crescenti di dismissione o riconfigurazione.
Il rischio, spiega, non è solo economico ma epistemico: quando la conoscenza operativa – dataset, prompt, log – si genera all’interno di un’infrastruttura chiusa, diventa difficile verificarne la correttezza o replicarne i risultati. In questo senso, il lock-in dell’AI si avvicina al concetto di “asimmetria informativa” dei mercati digitali.
Pileri ha proposto una via d’uscita. Per molte esigenze, ha spiegato, «non è indispensabile affidarsi ai Large Language Model, ma a modelli più specifici e più controllati». Questi modelli di AI, spesso open source, permettono di mantenere il controllo sui dati e sui processi decisionali, riducendo la dipendenza dalle grandi piattaforme.
Open source e modelli “contenuti”: la via europea alla sovranità
L’intervento di Pileri ha evidenziato un punto cruciale: la scala dei modelli. Se i grandi LLM contano centinaia di miliardi di parametri, esistono alternative da 7-10 miliardi che garantiscono prestazioni più che sufficienti per molte applicazioni aziendali. Tra questi ha citato Mistral, framework open source europeo, come esempio di infrastruttura sostenibile e controllabile.
«Perché usare un modello da 800 miliardi di parametri per un’esigenza specifica aziendale?» ha chiesto Pileri, ricordando che l’AI di tipo Retrieval Augmented Generation (RAG) permette alle imprese di conservare i propri dati in-house e di addestrare modelli sulle basi documentali interne. È una scelta tecnica che diventa politica: sviluppare modelli verticali e locali significa ridurre la dipendenza da fornitori esterni e rafforzare la sovranità digitale europea.
Profilazione, training e privacy: i dati pubblici come materia prima
Il terzo nodo della discussione riguarda la gestione dei dati e il confine, sempre più incerto, tra informazione pubblica e privata. Milan ha osservato che si tende a riconoscere la profilazione negli algoritmi tradizionali, ma si sottovaluta il fatto che anche le AI generative raccolgono e organizzano dati sugli utenti, spesso in modo ancora più esteso e opaco.
I contenuti pubblici del web – articoli, post, commenti, ricerche – diventano così materia di addestramento per i modelli, mescolando informazioni aperte e dati individuali. Quando questi sistemi generativi producono nuove risposte, riutilizzano e amplificano elementi derivati da attività umane tracciate, dando vita a un processo circolare in cui la stessa AI impara da sé stessa e dagli utenti che la interrogano. Questo solleva un tema cruciale di responsabilità e trasparenza, perché diventa difficile verificare l’origine, la qualità e la neutralità delle informazioni su cui si fondano i modelli.
Le risposte europee: dall’AI Act al Digital Markets Act
Il richiamo al DMA europeo, nelle parole di Milan, apre un collegamento diretto con le politiche comunitarie. I principi di interoperabilità, concorrenza equa e trasparenza algoritmica si estendono ora anche al dominio dell’intelligenza artificiale.
L’AI Act, approvato nel 2024, rappresenta il primo tentativo di costruire una governance comune per l’uso dei modelli fondativi, imponendo obblighi di documentazione, audit e gestione del rischio. Ma la sua efficacia dipenderà dalla capacità degli Stati membri di creare ecosistemi autonomi, capaci di bilanciare innovazione e controllo.
In questo quadro, la sovranità digitale non è solo un obiettivo politico ma un prerequisito tecnico: significa sapere dove risiedono i dati, chi controlla i modelli e come vengono orchestrati gli algoritmi che incidono sulla vita sociale e industriale.
Verso una nuova etica delle piattaforme
Il dibattito di Palazzo Isimbardi ha mostrato che la sovranità digitale non può essere ridotta a una questione di server o infrastrutture. È una dimensione etica e progettuale che riguarda la trasparenza dei processi algoritmici, la gestione del rischio e la possibilità di scegliere.
Come ha sottolineato Milan, le piattaforme non sono più meri strumenti ma intermediari di conoscenza. La loro capacità di aggregare e filtrare dati ridefinisce il modo in cui pensiamo la realtà digitale. Per questo, ha aggiunto Pileri, è necessario «guardare con attenzione ai modelli specifici e controllati», costruiti sulle esigenze delle imprese e basati su dati certificati e verificabili.
La sovranità digitale, in questa prospettiva, non è isolamento ma responsabilità condivisa: un equilibrio tra apertura e protezione, tra collaborazione e autonomia, in cui le regole dell’AI non vengano dettate da chi la possiede, ma da chi la utilizza con consapevolezza.




























