News

Bias, foundation model e privacy al centro “dell’AI Act statunitense”

Dalla Casa Bianca arrivano nuove regole e iniziative sull’AI per il 2024, alcune segneranno il futuro dei foundation model, altre plasmeranno quelli del mondo dell’informazione e del lavoro. Con questo recente ordine esecutivo, si spalancano le porte anche agli immigrati, ma solo se esperti di AI: potrebbero “importare” valore aggiunto a supporto delle aziende del Paese

Pubblicato il 21 Nov 2023

Immagine di Dragon Claws su Shutterstock

Sicurezza e privacy, innovazione, discriminazione algoritmica e perdita di posti di lavoro sono i punti chiave “dell’AI Act” statunitense annunciato a fine ottobre dal presidente Biden. Le sue parole disegnano il nuovo approccio all’AI da parte del governo, che andrà in scena nel corso del 2024. Alcuni cambiamenti in materia di sicurezza e protezione sono previsti a inizio anno, altri interventi più impegnativi legati alla trasparenza dei dati richiederanno diversi mesi, ma ci sarà un “consiglio per l’intelligenza artificiale” che detterà il tempo alle agenzie federali perché si rispettino le scadenze previste. Doveroso, visto che l’AI non aspetta nessuno.

Rallentare i foundation model per verificarne utilizzo e training

L’articolata iniziativa lanciata oltreoceano può essere uno spunto per il mondo occidentale e per tutti i Paesi che si stanno cimentando nella regolamentazione dell’AI, in particolare dell’AI generativa. Il primo punto che salta all’occhio agli appassionati di tecnologia è infatti quello relativo ai foundation model. Chi crea e addestra sistemi considerabili un “grave rischio” per la sicurezza nazionale, la sicurezza economica nazionale o la salute pubblica nazionale, sarà obbligato a notificarlo al governo degli Stati Uniti, condividendo i risultati di tutti i test di sicurezza red-team. Tutto ciò dovrà avvenire prima che il modello sia reso disponibile al pubblico, in modo da imporre implicitamente un rallentamento nel ritmo di lancio di soluzioni incomplete che lasci il tempo di verificare siano sicure e protette.

I modelli AI attualmente già disponibili sul mercato e quelli di aziende indipendenti o di piccole e medie dimensioni in fase di sviluppo non subiranno questi nuovi limiti, che guardano solo alle nuove generazioni di FM.

La necessità di una maggiore sicurezza attorno all’AI avvertita dalla Casa Bianca si declina anche in un programma di sviluppo strumenti AI per individuare e correggere autonomamente le vulnerabilità nelle infrastrutture software critiche. Dal NIST arriveranno degli standard tecnici sulla tecnologia di machine learning e gli sviluppatori dovranno eseguire test in stile red-team e condividere i risultati per dimostrare di non star immettendo sul mercato sistemi in grado di supportare chi vuole creare armi biologiche dannose o disinformazione.

Con l’avvicinarsi del prossimo appuntamento elettorale, spunta in questo ordine esecutivo anche un programma dedicato alle fake news. A portarlo avanti sarà il Dipartimento del Commercio, partendo da delle linee guida per etichettare i contenuti generati dall’AI utilizzando tecniche di watermarking per autenticare qualsiasi comunicazione pubblica: testi, audio e video.

Dalla parte dei cittadini e degli immigrati (esperti in AI)

L’idea è quella di proteggere i diritti dei cittadini statunitensi. Quello a una corretta informazione istituzionale, ma anche quello alla privacy. In tal senso, sarebbero in arrivo da parte del Congresso alcune nuove leggi che assicurino training di modelli AI che non la violino e finanziamenti per realizzare strumenti crittografici sempre più performanti

Un’altra “piaga” riguardante cittadini e AI riguarda la discriminazione algoritmica. Il governo, consapevole del rischio che un uso irresponsabile dell’AI possa comportare, ha annunciato massima attenzione e nuove regole, soprattutto nei settori della giustizia, dell’assistenza sanitaria e degli alloggi.

Anche nell’ambito del mercato del lavoro il rischio di bias è alto e si unisce a quello di delocalizzazione, di sorveglianza sul posto di lavoro o di sostituzione. In questo caso, si partirà creando un report sui potenziali impatti dell’AI per identificare i lavori a rischio di sostituzione e supportare meglio i dipendenti. In parallelo, il governo intende sviluppare principi e best practice per i datori di lavoro che attenuino i danni e massimizzino i benefici dell’AI per la workforce. E sarà lui stesso a offrire opportunità di fare carriera attraverso un nuovo portale con informazioni e indicazioni sui programmi di borse di studio disponibili per chi vuol essere assunto presso il governo federale. Benvenuti saranno anche gli immigrati: se esperti in AI sembra potranno beneficiare di uno snellimento dei criteri di rilascio dei visti, dei colloqui e delle revisioni per potersi trasferire nel Paese portando competenze, innovazione e valore aggiunto al suo tessuto imprenditoriale.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4