Le tecnologie digitali non si limitano più a supportare le attività umane, ma stanno diventando parte integrante dell’infrastruttura sociale. Ogni scelta compiuta oggi contribuisce a definire architetture destinate a durare, con conseguenze che ricadranno sulle generazioni future. Durante l’evento AI, HPC & Quantum – Reshaping the Technology Landscape, organizzato da E4 Computer Engineering, Luciano Floridi — John K. Castle Professor in the Practice of Cognitive Science e Direttore del Digital Ethics Center alla Yale University, oltre che Professore di Sociologia della Cultura e della Comunicazione all’Università di Bologna — ha richiamato l’attenzione su questa responsabilità collettiva, illustrandone rischi e implicazioni per la governance digitale.
Indice degli argomenti
La città di cemento e le fondamenta del digitale
Per descrivere il momento storico che stiamo vivendo, Floridi ha utilizzato una metafora urbanistica. Ha paragonato la trasformazione digitale alla costruzione di una città in cemento armato: «Quelle che stiamo facendo oggi, le fondamenta che stiamo gettando, diventano sempre meno flessibili e sempre più solide».
La metafora mette in evidenza come le scelte odierne non siano temporanee, ma destinate a definire il futuro digitale delle prossime generazioni. Una volta che la “città” sarà completata, chi verrà dopo potrà solo viverla o, in alternativa, distruggerla per ricominciare da zero. È una responsabilità che, secondo Floridi, va vissuta con consapevolezza ma anche con entusiasmo, perché per la prima volta non è una guerra a imporre la ricostruzione, ma un processo di trasformazione tecnologica.
Una nuova architettura della realtà
Il primo elemento che Floridi evidenzia è di tipo ontologico. Il mondo contemporaneo è sempre più digitale oltre che analogico: sensori, intelligenza artificiale, robotica e sistemi 3D non sono più accessori ma componenti strutturali della vita quotidiana. La governance digitale deve partire dal riconoscimento di questo dato: non è più il digitale ad adattarsi al mondo, ma il mondo ad adattarsi al digitale.
L’esempio della guida autonoma è illuminante. «In mezzo al nulla non funziona. Ma funziona tanto bene a San Francisco», ha osservato Floridi, sottolineando come l’ambiente urbano, con strisce pedonali sempre visibili e rispetto diffuso del codice stradale, favorisca l’efficacia della tecnologia. Altrove, dove le infrastrutture non sono adeguate, i rischi aumentano.
Il rischio di ridurre la realtà a modelli
Un secondo punto fondamentale è il rapporto tra realtà e modelli digitali. L’esempio della cartella clinica mostra come, in molti casi, il sistema sanitario arrivi a interagire più con l’astrazione digitale del paziente che con il paziente stesso. «Di sette passaggi che portano dalla lastra ai polmoni alla diagnosi, solo il primo riguarda il paziente reale, tutti gli altri sono digitali».
Il problema emerge quando il modello è incompleto o impreciso. Un dato sbagliato o mancante può condizionare interamente la diagnosi o il processo decisionale. Floridi mette in guardia dalla tentazione di lavorare esclusivamente sull’astrazione: i dati possono essere parziali o irrilevanti, e ciò rischia di portare a decisioni fuorvianti. L’esempio della scheda clinica che registra solo “fumatore sì/no” senza distinguere tra chi fuma una sigaretta al mese e chi tre pacchetti al giorno rende evidente la perdita di complessità.
«Il miglior modello del gatto è un altro gatto, possibilmente lo stesso gatto», ha ricordato Floridi, richiamando la necessità di non dimenticare la ricchezza del sistema reale da cui i dati vengono estratti.
La crescita delle regolamentazioni globali
Un altro punto centrale dell’intervento riguarda il quadro normativo. Negli ultimi anni, i Paesi hanno accelerato la produzione di strumenti legislativi sull’Intelligenza artificiale. Secondo Floridi, tra il 2016 e il 2024 sono stati discussi o approvati provvedimenti in 116 Stati, con un aumento costante dei cosiddetti bills.
La percezione comune che l’Europa sia l’unica area a legiferare in maniera stringente sull’IA è parziale. In realtà, gli Stati Uniti hanno visto una proliferazione di normative a livello statale: nel 2024 sono già più di 130 i provvedimenti approvati, con la California come stato dominante, che ha varato 42 leggi riguardanti temi che spaziano dai deepfake all’uso dell’IA in diversi contesti.
L’Europa si distingue invece per l’approccio unitario, con una legge vincolante che, a differenza del mosaico statunitense, garantisce un quadro normativo omogeneo per tutti gli Stati membri. Floridi sottolinea come, agli occhi dei legislatori americani, questa apparente semplicità sia persino invidiabile.
Governance digitale e responsabilità collettiva
Le riflessioni portano al tema centrale: chi controlla chi nell’ecosistema digitale. La governance digitale non riguarda solo le infrastrutture tecniche, ma anche la distribuzione dei poteri e delle responsabilità. Floridi invita a interrogarsi su «chi può alzare la mano e determinare il bello e il brutto» in un sistema in cui la tecnologia condiziona scelte economiche, sociali e politiche.
Pur riconoscendo i vantaggi del digitale, Floridi insiste sulla necessità di usarlo «con attenzione, con criterio, con intelligenza», proteggendo ciò che appartiene alla dimensione analogica senza cadere in un tecnocentrismo acritico.
Un equilibrio tra innovazione e tutela
L’evoluzione del digitale non implica la rinuncia alla complessità della realtà, né la riduzione della società a un insieme di dati. La sfida è mantenere un equilibrio tra innovazione e tutela, evitando che i modelli diventino sostituti della realtà. La regolamentazione non è un freno, ma uno strumento di garanzia che permette di valorizzare le potenzialità del digitale senza sacrificare la verità dei sistemi reali.