L’AI gioca ai videogame e vince una sfida matematica sbloccando l’innovazione

pittogramma Zerouno

News

L’AI gioca ai videogame e vince una sfida matematica sbloccando l’innovazione

Giocando si impara, ma non solo. Se a farlo è l’AI si risolvono anche problemi di calcolo complessi, promettendo una riduzione di costi e di consumo energetico a chi fa business grazie a questa tecnologia. È ciò che è accaduto quando DeepMind ha chiesto ad AlphaTensor il modo per vincere un gioco nel minor numero di mosse possibile.

04 Nov 2022

di Marta Abba'

Addestrando l’AI per vincere nel minor numero possibile di mosse un suo gioco, DeepMind ha accelerato la risoluzione di uno storico problema matematico, quello della moltiplicazione di matrici. La nuova versione della sua intelligenza artificiale AlphaZero, AlphaTensor, è infatti riuscita a individuare un modo nuovo e più rapido per affrontare questo calcolo di importanza fondamentale nell’informatica. Lo si cercava da oltre 50 anni, perché potrebbe imprimere una svolta in un gran numero di differenti applicazioni AI concrete e vitali per i nuovi business basati su tale tecnologia.

Dai metodo scolastico alla sfida da gamers, per risparmiare soldi ed energia

L’impatto di questa notizia è stato avvertito dal mondo del gaming, della matematica e dell’innovazione, tanto da meritare un articolo su Nature. L’accelerazione del calcolo del prodotto tra due matrici comporta infatti una forte riduzione dei costi e del consumo di energia di tante attività informatiche quotidiane. Dalla visualizzazione di immagini su uno schermo alla simulazione di fisica complessa fino al “classico” deep learning: tutte queste applicazioni AI diventano ora più sostenibili, in ogni senso, grazie allo spirito competitivo che anima il settore dei game.

WEBINAR
30 Novembre 2022 - 15:00
Accelera la Business Process Tranformation con le tecnologie del futuro
Intelligenza Artificiale
Business Analytics

Quello che AlphaTensor “regala” di fatto al mondo AI è una riduzione dei passaggi necessari per risolvere un calcolo pervasivamente presente in ingegneria. Lo si impara a risolvere in verità già alle superiori, moltiplicando le righe di una matrice con le colonne dell’altra. Il classico metodo scolastico però, seppur funzionante ed efficace, risulta inadeguato ai grandi numeri – e alle grandi matrici – delle attuali applicazioni AI.

Un passo avanti era stato compiuto infatti nel 1969 dal matematico tedesco Volker Strassen che aveva ridotto i passaggi nella moltiplicazione di due matrici quattro per quattro, portandoli a 49. AlphaTensor ha però trovato un modo per farlo in 47 passaggi, individuandolo tra gli oltre 10 alla potenza di 33 algoritmi esistenti. Due passaggi in meno può sembrare un miglioramento ridicolo ma, alzando la posta in gioco (la dimensione delle matrici) l’AI di DeepMind dimostra performance nettamente migliori. Battendo i migliori algoritmi esistenti per oltre 70 matrici di dimensioni diverse, riesce infatti a ridurre il numero di passaggi necessari per moltiplicare due matrici nove per nove da 511 a 498, e il numero richiesto per moltiplicare due matrici 11 per 11 da 919 a 896.

La nuova informatica sarà tutta un gioco?

“S’impara soltanto divertendosi” scriveva il Premio Nobel per la Letteratura del 1921 Anatole France. Un consiglio “pedagogico” che DeepMind sta applicando alla lettera per ampliare il proprio business. Il trucco messo in campo è stato infatti trasformare il problema in una sorta di gioco da tavolo tridimensionale, chiamato TensorGame. Su un tabellone la moltiplicazione da risolvere, la sua soluzione in una serie di mosse che rappresentano un algoritmo, quello per vincere nel modo più rapido.

Non è la prima volta che ciò accade. Sempre DeepMind, sempre “per gioco”, nel 2020 aveva risolto l’annoso problema del ripiegamento proteico. Con la seconda versione del suo sistema di AI AlphaFold, era riuscita infatti a ricostruire in 3D la forma che la proteina assume dopo il ripiegamento (folding) in base alla sua sequenza di aminoacidi, accelerando la creazione di farmaci e vaccini e lo studio di alcune malattie.

Dopo il “caso” TensorGame, nel mondo dell’AI e del calcolo complesso comincia quindi a maturare il sospetto di trovarsi di fronte a un nuovo modo di fare informatica. Ora è importante comprendere se questo metodo possa sostituire tutti i precedenti o se è meglio combinarli e ottenere qualcosa di ancora migliore.

Lasciando questi dubbi ai matematici, DeepMind procede convinta. Ha continuato a far lavorare AlphaTensor chiedendogli di differenziare la ricerca degli algoritmi più veloci rispetto agli hardware utilizzati. Una domanda da porsi, in effetti, perché i chip dei computer sono spesso progettati per tipi specifici di calcolo. Iniziando dalle GPU Nvidia V100 e dai processori Google TPU, due dei chip più utilizzati per l’addestramento delle reti neurali artificiali, ha ridotto i tempi di calcolo di circa il 10-20% rispetto ai metodi tradizionali. Ora è pronta a utilizzare il suo “giocoso” metodo per trovare nuovi algoritmi, o sbloccare vecchi problemi irrisolti, ed eliminare tutte le zavorre che frenano l’innovazione.

Marta Abba'

Giornalista

Laureata in Fisica e giornalista, per scrivere di tecnologia, ambiente e innovazione, applica il metodo scientifico. Dopo una gavetta realizzata spaziando tra cronaca politica e nera, si è appassionata alle startup realizzando uno speciale mensile per una agenzia di stampa. Da questa esperienza è passata a occuparsi di tematiche legate a innovazione, sostenibilità, nuove tecnologie e fintech con la stessa appassionata e genuina curiosità con cui, nei laboratori universitari, ha affrontato gli esperimenti scientifici.

Argomenti trattati

Approfondimenti

Intelligenza Artificiale

Articolo 1 di 5