Attualità

AI Act: non ci sarà mai un atto finale, dovrà evolvere

Una conoscenza profonda della tecnologia e un’elasticità da atleta nell’approccio. Ecco cosa serve a chi vuole regolamentare l’intelligenza artificiale, minimizzando i rischi e massimizzando i benefici. L’Europa ci sta provando e sembra essere sulla strada giusta, quella della difesa dei diritti e delle libertà dei cittadini

Pubblicato il 24 Mag 2023

ai intelligenza artificiale

Una volta tanto sono tutti d’accordo, est e ovest, imprese e ricercatori, Usa, Cina ed Europa: l’intelligenza artificiale va regolamentata. È molto probabile che si arriverà a leggi differenti ma ce ne devono essere. Potranno rappresentare diversi tentativi per stare al passo con una tecnologia che evolve molto velocemente. La vera sfida è infatti quella di realizzare un quadro normativo evitando l’obsolescenza programmata dello stesso.

Conoscenza ed elasticità per evitare leggi obsolete

Ciò che serve è un’ottima conoscenza della tecnologia e una forte elasticità nella formulazione dei regolamenti. Ne è convinto Ernesto Belisario, avvocato specializzato in diritto delle tecnologie e innovazione nella PA, secondo cui questo rincorrere l’innovazione è fisiologico e anche funzionale.

“Se la legge arrivasse prima della tecnologia, non terrebbe conto dei suoi requisiti e rischierebbe di nascere già ‘vecchia’. Al contrario, bisognerebbe lavorarci sviluppando una conoscenza profonda dell’intelligenza artificiale, delle modalità di addestramento e di controllo dei dataset di training: sono tutte informazioni importanti per stabilire regole giuste. Altrimenti c’è il rischio di normare ciò che non si conosce, optando per soluzioni inadeguate oppure per vincoli eccessivi e punitivi nei confronti di un mercato potenzialmente in forte crescita”.

L’obiettivo deve essere quelli di godere delle opportunità offerte dall’AI, anche di quella generativa, minimizzando i rischi ed evitando di imbrigliare genericamente più soluzioni in vista di una minaccia non meglio identificata.

Perché ciò avvenga, è essenziale adottare un approccio elastico. “Serve una normativa di principio, semplice da adattare e non prescrittiva, in modo che non diventi subito obsoleta” spiega Belisario. “In questo l’Europa ha imboccato la strada giusta, scegliendo di sviluppare una legge basata sulla valutazione del rischio”.

AI Act: Europa ancora pioniera delle normative tecnologiche

L’approccio europeo piace agli utenti e anche agli stakeholder e ha permesso ai regolatori di aggiustare l’AI Act dopo il “boom” di intelligenza artificiale generativa seguito al lancio di ChatGPT. “La velocità con cui questa tecnologia ha scalato ha richiesto di ritoccare la norma. Si è stabilito che è necessario rivelare quando il testo è creato con l’aiuto dell’AI e di comunicare con trasparenza i dati usati per training” racconta Belisario, affermando che “la norma non è stata stravolta da questa nuova ondata tecnologica, grazie proprio all’elasticità con cui è stata concepita”.

Un approccio che si sta rivelando corretto, quindi, frutto di un intenso lavoro iniziato ad aprile 2021 e proseguito con numerosi confronti e giri di approvazione. L’11 maggio si è conclusa la parte di modifiche, entro metà giugno ci sarà il voto plenario in Parlamento. Seguirà poi il negoziato finale interistituzionale con il Consiglio dell’UE, per arrivare a chiudere la proposta e procedere alla pubblicazione nella gazzetta ufficiale. Da quel momento, la legislazione sarà effettivamente norma vigente per tutti i Paesi membri.

“Sono questi i tempi della democrazia. Probabilmente in Cina procederanno più velocemente, riconquistando terreno, ma nel medio lungo termine l’approccio dell’Europa risulterà migliore” afferma Belisario, citando dei precedenti. Il più evidente è quello del GDPR, con cui l’Unione Europea ha dimostrato di essere avanti e di ispirazione per molti altri Paesi. “Ci vorranno anni per capire la reale efficacia dell’AI Act – aggiunge – In medicina si può contare su un approccio ‘trail & go’, sperimentando ogni tecnica nuova prima di estenderla a tutti, solo in un secondo momento. Nel diritto si ha subito il ‘go’ diretto, senza poter verificare preventivamente l’efficacia delle norme. Ecco perché è essenziale che le istituzioni europee si dimostrino capaci di ‘fare tutti i tagliandi’ che servono a questa norma, perché è verosimile che nel futuro prossimo serviranno modifiche”.

Autorità nazionale nuova o “usata”? Un dilemma anche italiano

Con una norma “elastica” tra le mani, l’Europa passerà presto la palla ai Paesi membri e sarà loro compito individuare quali autorità si dovranno occupare della sua applicazione. Un compito arduo, che racchiude due sfide. I governi dovranno decidere se istituire un nuovo ente ad hoc o affibbiare l’onere della messa a terra dell’AI Act a uno già esistente. In ogni caso dovranno anche capire come gestire il tema dei rapporti tra autorità.

“Ogni soluzione tecnologica innovativa solitamente impatta su diversi enti e va compreso come gestire i differenti pareri in modo da non arrivare a dover assemblare un puzzle di considerazione contrastanti, con il rischio di allungare i tempi e far restare il Paese un passo indietro” spiega Belisario.

Quanto al dilemma tra ente nuovo o “usato”, ci sono pro e contro e starà a ogni singolo Paese valutarli e decidere. Istituire una nuova autorità dedicata all’intelligenza artificiale permetterebbe un maggior focus su questa tecnologia e le sue evoluzioni ma emergerebbe il rischio di una parcellizzazione che potrebbe causare rallentamenti.

Al contrario, incaricando un ente già esistente, si potrebbero ottimizzare tempi e risorse umane, ma ciò potrebbe avvenire a scapito delle competenze e della profondità del lavoro fatto sul tema. Un tema oggi chiave per ogni singolo Paese e per un’Europa ancora una volta pioniera e capace di mettere al centro i diritti e le libertà delle persone, distanziandosi dalla Cina e dando il buon esempio agli Stati Uniti.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4