Editoriale

Un’agenzia internazionale per l’AI? Ottima idea, ma nella pratica…

La proposta/appello degli sviluppatori di OpenAI ha suscitato molta preoccupazione nell’opinione pubblica, ma rappresenta decisamente una soluzione di buon senso per un tema che si fatica ad affrontare attraverso le “normali” regolamentazioni

Pubblicato il 05 Giu 2023

agenzia internazionale per l’AI

La crescita esponenziale nello sviluppo dei sistemi di intelligenza artificiale è diventata un tema “caldo” che coinvolge il mondo della tecnologia, della cultura e l’intera società. Tra i timori legati a possibili usi malevoli dell’AI e le visioni apocalittiche in cui gli algoritmi sfuggono al controllo di chi li ha creati, si dipanano in realtà mille rivoli e sfaccettature che gli stessi addetti ai lavori faticano a mettere a fuoco.

L’appello pubblicato dai vertici del team di sviluppo di OpenAI sul blog dell’azienda che ha creato Chat GPT suona come una conferma del fatto che una regolamentazione della tecnologia è indispensabile. Qualcosa che è stato sottolineato anche da numerosi governi e istituzioni internazionali, a partire dall’Europa, che sta lavorando al suo AI Act. Sam Altman, Greg Brockman e Ilya Sutskever vanno però oltre, suggerendo una modalità di intervento che si presta anche a letture (eccessivamente) allarmanti.

L’AI come la bomba atomica?

A far saltare sulla sedia molti commentatori è stato, in particolare, un passaggio specifico contenuto nell’appello. Nel post, intitolato “Governance of superintelligence”, il CEO di OpenAI e i suoi colleghi auspicano infatti la nascita di un modello di governo dell’AI ispirato a quello dell’Agenzia Internazionale per l’Energia Atomica (AIEA). Un riferimento che è stato interpretato, un po’ frettolosamente, come un paragone a livello di pericolosità tra l’energia nucleare e l’intelligenza artificiale.

In realtà, c’è del vero. Il ragionamento fatto dagli autori del post è simile a quello che porta a considerare l’energia atomica come una tecnologia utile, ma potenzialmente dannosa nel caso di un uso a scopo bellico. E, anche se l’intelligenza artificiale ha per lo meno il vantaggio di non generare scorie radioattive inquinanti quando viene usata in maniera “pacifica”, il parallelo può in qualche modo reggere. Andando oltre a questo aspetto, l’auspicio di un’agenzia dedicata risolverebbe almeno un paio di problemi.

Primo problema: rincorrere le tecnologie a colpi di leggi

I tentativi di regolamentare lo sviluppo e l’uso dell’AI si stanno scontrando, innanzitutto, con l’impossibilità di stare al passo con l’evoluzione della tecnologia stessa. Se ne sono accorti dalle parti dell’Unione Europea, il cui AI Act sta subendo continue revisioni.

Il processo per licenziare il disegno di legge, infatti, aveva preso le mosse quando l’AI generativa (leggasi Chat GPT) non aveva ancora “sfondato” e le ripercussioni di una sua implementazione a livello di massa non erano affatto note. Chiariamo: non che ora siano molto più definite. Chi scrive, nell’affrontare il tema con colleghi ed esperti del settore, si trova a dover considerare ogni giorno nuove problematiche che richiederebbero una qualche forma di controllo. Insomma: qualsiasi normativa sull’AI rischia di nascere già vecchia o, nella migliore delle ipotesi, diventare rapidamente obsoleta.

Un aspetto connesso è quello legato alla territorialità. Anche se i grandi player mondiali (UE, USA, India e Cina) dovessero trovare un accordo riguardo a un quadro legislativo comune, il che è per lo meno improbabile, rimarrebbe un rischio di frammentazione e la possibilità che spuntino “paradisi di intelligenza artificiale” con normative meno stringenti. Un po’ sulla falsa riga di quanto avviene a livello fiscale. Esiste anche il pericolo, sempre presente, che ogni governo utilizzi le normative allo scopo di penalizzare i competitor stranieri rispetto alle aziende locali.

Creare un’agenzia sull’esempio dell’AIEA permetterebbe di risolvere almeno questo aspetto. Tale ente potrebbe adottare un approccio dinamico e flessibile, utilizzando dei principi generici che sarebbero poi declinabili, nella pratica, a seconda delle evoluzioni del settore. Non solo: se si collocasse nell’alveo di un’organizzazione come le Nazioni Unite, potrebbe vantare quei caratteri (democraticità e multilateralismo) che faciliterebbero un processo di adesione volontaria da parte di aziende e governi.

Secondo problema: come fare i controlli?

Fatta una legge, sarebbe necessario applicarla. Come? Eventuali controlli dovrebbero prevedere l’analisi dell’algoritmo, ma è facile prevedere che ci si scontrino con problemi legati alla segretezza e alla tutela dei brevetti. In altre parole, siamo sicuri che le Big Tech statunitensi saranno disposte a far ficcare il naso nei loro algoritmi a degli ispettori di Pechino, e viceversa?

Un’agenzia “super partes” potrebbe anche in questo senso rappresentare una soluzione di buon senso, mitigando il rischio che la regolamentazione dell’AI diventi un (ennesimo) terreno di scontro a livello geopolitico.

Tutto da considerare, invece, quanto possa essere fattibile andare oltre un semplice livello di adesione volontaria da parte delle singole aziende. Qui il paragone con l’AIEA, infatti, non funziona. Per implementare tecnologie basate sul nucleare è infatti necessario costruire infrastrutture di dimensioni notevoli, che hanno poche speranze di passare inosservate. Non solo: anche l’approvvigionamento di materie prime può essere facilmente monitorato. Ciò che accade nel chiuso di un data center, invece, è decisamente più sfuggente. Pensare di istituire sistemi di controllo “autoritari” sarebbe, di conseguenza, impossibile.

Tanti problemi sul tavolo e la necessità di usare un po’ di fantasia per trovare delle soluzioni che ci consentano di sfruttare al meglio le opportunità offerte da una tecnologia davvero “disruptive”, i cui contorni a livello etico e di impatto sociale sono però ancora molto sfumati.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4