News

Google DeepMind gioca con gli LLM e li convince e scoprire cose nuove

Se ben stimolati, i large language model si dimostrano in grado di generare ricette per creare soluzioni di problemi matematici irrisolti, mai prese in considerazione dall’uomo. Scoprono nuove “cose”, quindi, non ne cucinano solo rimescolando gli ingredienti ricevuti durante il training. Questa scoperta fatta per gioco da FunSearch, il nuovo strumento di Google DeepMind, cambia prospettiva e non solo per chi insegue soluzioni di enigmi “di nicchia”

Pubblicato il 08 Feb 2024

Immagine di Robert Way su Shutterstock

Se si trattasse solo dell’ennesimo ostico problema matematico risolto “giocando” da una delle creaturine intelligenti di Google, non farebbe nemmeno più notizia. Ormai il trucco del “solve by play” è noto e, chi segue tali vicende, non si sorprende più del fatto che funzioni. Ciò che colpisce del nuovo episodio è che, stavolta, ci sono di mezzo i Large Language Model. Ciò che è emerso è che sembra possano scoprire anche qualcosa di nuovo, non solo “rimescolare” informazioni a loro fornite durante il training. Questo è accaduto grazie a un nuovo strumento lanciato da Google DeepMind chiamato FunSearch (perché cerca funzioni, non per una sua presunta indole divertente). Tutto è spiegato in un articolo pubblicato di recente su Nature.

Completare un codice: il trucco per stimolare gli LLM

Questa volta, l’ex problema irrisolto è quello del cap set che sfida i matematici di tutto il mondo a trovare la dimensione più grande di un certo tipo di insieme. Per immaginare meglio tale richiesta, bisogna considerare di dover capire quanti punti si possono segnare su un foglio di carta senza che tre di essi formino mai una linea retta. Questo enigma, apparentemente senza senso e inutile, è in realtà astrattamente collegato a diversi problemi dal risvolto pratico più evidente, tra cui la moltiplicazione delle matrici.

Approcciando la richiesta con FunSearch, i ricercatori l’hanno prima espressa in Python, tralasciando volutamente le righe del programma che avrebbero specificato come risolverlo. Poi si sono rivolti a questo strumento AI chiedendo di riempire tali spazi con proposte di codice risolutivo. Nello step successivo, è entrato in gioco un secondo algoritmo che controlla e assegna un punteggio a quanto è stato proposto, in modo da poter salvare e restituire a FunSearch i suggerimenti migliori, per un nuovo ciclo di proposte di codice da generare.

A quanto spiegato dai ricercatori Google, in un paio di giorni, tempo di produrre alcuni milioni di suggerimenti e di effettuare qualche decina di ripetizioni del processo complessivo, si è riuscita a ottenere una soluzione corretta e, soprattutto, inedita, precedentemente sconosciuta. Questo significa che, per la prima volta, un LLM è stato utilizzato per risolvere un enigma scientifico, producendo nuove informazioni verificabili e preziose che non esistevano. Finora non era mai avvenuto: questi grandi modelli erano sempre stati chiamati in causa per inventare cose, mai per scoprirne di nuove.

Una mossa senza precedenti. ma con un promettente futuro

Per comprendere meglio l’entità dell’importanza che questa prima volta rappresenta, la si può confrontare che i precedenti successi di DeepMind in campo matematico. Quello con AlphaTensor, per esempio, nel trovare il modo di accelerare un calcolo alla base di molti tipi di codice, oppure quello con AlphaDev, con cui è riuscito a velocizzare l’esecuzione di algoritmi chiave utilizzati trilioni di volte al giorno.

Entrambi sono costruiti sulla base di AlphaZero ed entrambi risolvono i problemi matematici trattandoli come se fossero rompicapi di Go o scacchi. Entrambi sono ben diversi da FunSearch, che combina un LLM con altri algoritmi inseriti per scartare le risposte errate o senza senso e riutilizzare solo quelle valide. Un approccio completamente diverso che non solo apre nuove strade a Google DeepMind. Mostra anche che può essere in grado di generare una ricetta che trova soluzioni, piuttosto che produrre solo soluzioni ad uno specifico problema.

Questo abissale passo avanti è disruptive e ne va testata la reale versatilità. I ricercatori hanno messo alla prova FunSearch proponendogli un altro difficile problema matematico: il problema del bin packing. In questo caso la richiesta è quella di cercare di impacchettare gli oggetti nel minor numero possibile di contenitori. Una situazione che richiama la gestione dei data center e il daily business del commercio elettronico, oltre a molti altri problemi informatici. Anche in questo caso, con il “metodo FunSearch”, si riesce a trovare nuovo modo per risolverlo, più veloce e ben diverso da quello da sempre tentato dal cervello umano.

Test soddisfacente, ora i ricercatori stanno studiando come incorporare modelli linguistici di grandi dimensioni nel flusso di lavoro di ricerca, in modo da valorizzarne la potenza ed eliminarne gli svantaggi. Una sfida ambiziosa, ancora una volta da prendere per gioco.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3