Attualità

La strategia italiana ed europea per lo sviluppo della human centred AI

Se nuova rivoluzione digitale sarà guidata dall’Artificial Intelligence, come prevedono gli analisti e confermano i dati, è sempre più urgente stabilire regole e prospettive. Al contempo, è indispensabile valutare gli impatti dell’AI sulle organizzazioni, sul lavoro, sulle persone. Di seguito l’analisi di programmi e azioni legislative in campo e delle tante domande ancora aperte.

Pubblicato il 16 Ago 2022

human centred AI

L’Intelligenza Artificiale (AI) sta assumendo un ruolo sempre più centrale nella trasformazione digitale e sembra destinata a guidare la prossima ondata di innovazione. Lo confermano, ad esempio, le previsioni IDC che indicano una spesa globale per i sistemi AI (software, hardware e servizi) in aumento del 19.6% nell’anno in corso per raggiungere i 432.8 miliardi di dollari a fine anno e superare i 500 miliardi nel 2023. L’Italia ha manifestato un incremento del 27% nel 2021, sebbene all’interno di un valore ancora contenuto (380 milioni di euro), come ha evidenziato l’Osservatorio Artificial intelligence del Politecnico di Milano.

In questo contesto, l’Italia e l’Europa sono consapevoli della necessità di definire un rapido riposizionamento se non vogliono essere tagliate fuori dalla nuova fase di innovazione che vede, al momento, protagonisti soprattutto Paesi come Usa e Cina. L’Italia, ancor più di altri Paesi UE, dovrà correre per recuperare i ritardi e superare le inefficienze storiche nel campo della ricerca e del trasferimento tecnologico.

Programma strategico italiano per l’Intelligenza Artificiale

Per rafforzare l’ecosistema nazionale dell’AI, dal lavoro congiunto di tre Ministeri (Università e Ricerca, Sviluppo Economico, Innovazione Tecnologica e Transizione Digitale), è nato un piano per il triennio 2022-2024, ampiamente illustrato in occasione del convegno “Intelligenza artificiale: l’Italia s’è desta!”, organizzato dall’Osservatorio Artificial intelligence.

L’obiettivo è rendere l’Italia competitiva in campo AI a livello globale, attraverso il rafforzamento della ricerca e incentivi al trasferimento tecnologico, con l’individuazione delle fonti di investimento, europee e nazionali, per sostenere ciascuna politica. Il Programma Strategico per l’Intelligenza Artificiale definisce un quadro di iniziative mirate allo sviluppo dell’AI in Italia, con la definizione precisa di obiettivi e azioni, a partire da cinque principi che vanno considerati nel loro insieme:

  • Il Programma è allineato con il Piano coordinato dell’UE sull’intelligenza artificiale e ne riflette gli obiettivi da raggiungere a livello internazionale.
  • Il Programma prevede investimenti nella ricerca e nelle applicazioni di frontiera al fine di creare un ecosistema AI di riferimento a livello internazionale.
  • L’AI italiana punta a essere antropocentrica, affidabile e sostenibile, grazie a uno sviluppo tecnologico finalizzato non solo alla crescita economica, ma anche all’inclusività, ai diritti umani e alla sostenibilità ambientale.
  • Il Programma promuove lo sviluppo, l’implementazione e l’adozione di soluzioni AI nelle imprese italiane che dovranno diventare leader nella ricerca, nello sviluppo e nell’innovazione AI per portare il Paese allo stesso livello delle nazioni più innovative.
  • Nel settore pubblico l’AI integrerà l’approccio etico finalizzato a mitigarne i potenziali rischi favorendo un utilizzo responsabile dei dati e della tecnologia.

Iniziative europee e proposta di regolamento AI

Il Programma italiano si colloca all’interno della visione europea sull’AI che fin dal 2018 ne ha colto la portata strategica, come ha ricordato Fosca Giannotti, Professore Scuola Normale Superiore Pisa & Associato ad KDD Lab. ISTI-CNR Pisa, in occasione del Convegno sopra citato. “C’è stata una sorta di chiamata ai Paesi dell’Unione sul potere di trasformazione dell’AI che ha attivato una strategia pensata per stimolarli alla creazione un ecosistema di eccellenza e di trust e alla definizione di una strategia sui dati”.

Tutti questi elementi sono presenti nel cluster 4 di Horizon Europe, all’interno del quale Giannotti rappresenta l’Italia, che prevede il finanziamento della ricerca e dell’innovazione in ambito digitale, in ambito industriale e nel settore spaziale. “L’AI pervade il cluster 4 in tutte le sue dimensioni e nelle aree dedicate”, spiega ancora Giannotti.

La costruzione di tecnologie e piattaforme di analytics in campo dati e del computing at the edge sono, ad esempio, abilitanti per le tecnologie AI, così come lo stimolo alla convergenza fra AI, dati e robotica. In sostanza, a livello europeo si punta a mettere in pratica la visione human centric dell’AI per potenziare le capacità umane, nel rispetto dei diritti e degli aspetti etici. Supportano la concretizzazione di questi principi la creazione delle grandi reti di eccellenza, per mettere in connessione i centri dedicati all’AI e mobilitare la ricerca fondazionale verso la creazione di sistemi di AI affidabili, e dei digital hub.

Grande rilievo hanno anche le infrastrutture di sperimentazione, come evidenzia la recente call “AI Testing and Experimentation Facilities”, all’interno del programma Digital Europe, per la realizzazione di sperimentazioni su settori come manifatturiero, health care e agricoltura, con il coinvolgimento delle imprese.

Nasce con queste premesse la proposta di Regolamento sull’Intelligenza Artificiale (AI Act), presentato dalla Commissione europea nel 2021. La scelta della regolamentazione non va vista come un freno all’innovazione, ma come la via per la creazione di mercato più competitivo in quanto aumenta la fiducia e le possibilità di utilizzo. Lo ha evidenziato Vittorio Calaprice, Analista politico della Rappresentanza in Italia della Commissione europea. “La regulation è un’azione coraggiosa della UE che sta monopolizzando la discussione mondiale; anche la Cina ne sta occupnado”, ha aggiunto Giannotti.

Attualmente l’AI Act è in fase di discussione al Parlamento europeo e dovrebbe essere approvato entro il 2023, secondo quanto prevede Brando Benifei, uno dei due relatori della legge con l’europarlamentare rumeno Dragoș Tudorache.

Il percorso non sarà facile e saranno necessarie molte mediazioni per tener conto dei quasi 300 emendamenti già presentati. Come ha ricordato Benifei, il primo passo riguarda la discussione dei diversi livelli di rischio delle applicazioni basate su AI da immettere sul mercato.

Al momento si è individuato un primo livello, considerato inaccettabile, in cui si potrebbero collocare, ad esempio, l’uso del social scoring da parte dei governi e la sorveglianza biometrica in tempo reale, in particolare, il riconoscimento facciale tuttora in discussione nei suoi dettagli. Al secondo livello, sono collocate le applicazioni ad alto rischio che richiedono limitazioni normative, mentre le altre applicazioni, non esplicitamente proibite o considerate ad alto rischio, potrebbero essere liberamente immesse sul mercato.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4