Edtoriale

Il futuro dell’AI nelle mani dei giudici USA

Nella causa intentata dal New York Times nei confronti di OpenAI vengono affrontati una serie di temi che i legislatori non hanno ancora regolato compiutamente. Può essere l’occasione per spazzare via dubbi e contraddizioni nello sviluppo dell’intelligenza artificiale. Con qualche rischio…

Pubblicato il 10 Gen 2024

AI USA

Tanto tuonò, che piovve: a ridosso del clamore mediatico (e politico) legato all’avvento dell’AI generativa, arriva il casus belli che permetterà di affrontare di petto una serie di questioni legate allo sviluppo e all’utilizzo di ChatGPT e soci.

A dare impulso al processo è niente meno che il New York Times, che lo scorso 27 dicembre ha depositato una citazione in giudizio ai danni di Open AI e Microsoft. Tema: il risarcimento dei danni che il NYT ritiene di aver subito a causa dell’implementazione di ChatGPT e Bing Search.

Al di là del potenziale impatto economico, che dalle parti del NYT non hanno nemmeno definito in termini di richieste, la causa avrà sicuramente ripercussioni importanti. L’elemento interessante della vicenda è che il Times, nella citazione, tocca una serie di questioni che fino a oggi sono rimaste “sotto traccia” o, per lo meno, sono state archiviate con una certa superficialità.

Se all’equazione aggiungiamo il fatto che il processo (al netto dell’eventualità di una mediazione) è quasi sicuramente destinato ad arrivare alla Corte Suprema e che per le peculiarità del sistema giudiziario statunitense una sentenza di questo livello andrebbe a definire buona parte del quadro legislativo legato all’AI, è evidente come ci si trovi di fronte a qualcosa che potrebbe estendere le sue conseguenze ben al di fuori dei confini USA.

I rapporti tra AI generativa e giornalismo

La corposa citazione in giudizio presentata dal NYT tocca, come c’è da aspettarsi, principalmente il rapporto tra AI generativa e attività editoriale. Un rapporto terribilmente complicato, che ha già suscitato un acceso dibattito tra gli addetti ai lavori e che è destinato probabilmente a evolvere nei prossimi mesi (o anni) in direzioni tutt’altro che prevedibili.

Nella sostanza, i legali del quotidiano newyorkese contestano ai chatbot un ruolo di competitor delle tradizionali testate. Sotto la lente degli avvocati sono finiti, in particolare, i casi in cui ChatGPT riproduce testi che sono in parte o completamente estratti da articoli pubblicati dal Times, sia a causa dell’uso degli stessi testi per addestrare l’algoritmo, sia per la facilità con cui è possibile aggirare i “blocchi” che dovrebbero impedire al chatbot di riportare articoli protetti da copyright o, addirittura, dal paywall.

Più sottile l’impatto legato al capitolo Wirecutter, una sezione del Times che pubblica recensioni di qualsiasi tipo di prodotti. In questo caso, il problema è che il ricorso a un chatbot per avere informazioni sui suggerimenti pubblicati finisce per escludere i link normalmente inseriti negli articoli. Un bel problema per il Times, visto che Wirecutter vive attraverso il sistema dei link di affiliazione, il quale prevede che la testata incassi una percentuale di ogni vendita online effettuata attraverso i suddetti link. Insomma: in questo caso l’impatto dell’AI generativa non riguarda direttamente la violazione del copyright, quanto lo scardinamento di un modello di business ormai ampiamente diffuso sul web.

Allucinazioni e addestramento

Gli aspetti più “strutturali”, però, sono altri. Il primo riguarda le cosiddette “allucinazioni”, cioè le vere e proprie cantonate che ChatGPT prende con una discreta frequenza. Nella citazione in giudizio, i legali sostengono che l’attribuzione al NYT di notizie, affermazioni e inchieste inesistenti rappresentano un elemento lesivo dell’autorevolezza del quotidiano.

Una decisione favorevole in questo senso avrebbe notevoli conseguenze, più che altro nell’ottica di un’apertura a eventuali pretese simili da parte di qualsiasi tipo di soggetto. Per ora, infatti, le allucinazioni di ChatGPT sono state trattate come “peccati veniali” e l’orientamento prevalente è quello per cui la diffusione di informazioni false prodotte dall’AI generativa siano responsabilità di chi ha utilizzato il chatbot senza fare opportune verifiche.

Un’interpretazione che molti hanno già segnalato come “discutibile”, visto e considerato che la semplice visualizzazione di un’informazione falsa in un motore di ricerca basato su AI è più che sufficiente per minare la reputazione di chiunque, anche senza che sia ripresa in un articolo o un testo online.

Infine, c’è il tema dell’addestramento. Semplificando la questione, ciò che il NYT rivendica è il fatto che OpenAI e Microsoft abbiano guadagnato milioni di dollari attraverso uno strumento (ChatGPT e Bing Search) che è stato realizzato usando materiale creato in buona parte dal quotidiano statunitense. Stando alle informazioni raccolte dai legali della società newyorkese, infatti, nel dataset usato da OpenAI il Times sarebbe la terza fonte in ordine quantitativo.

Finora, OpenAI si era appellata al concetto di “fair use” per giustificare l’uso del materiale protetto da copyright nell’addestramento dell’algoritmo. Questo, però, era prima che l’AI generativa diventasse un business miliardario e quando la stessa OpenAI si presentava come una società esclusivamente non profit. Sembrano passati secoli…

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4