Prospettive

Intelligenza Artificiale e Cognitive Computing: i nuovi orizzonti

Sebbene siano ancora molteplici i limiti tecnologici che ‘frenano’ lo sviluppo di applicazioni per intelligenza artificiale e reti neurali, lo sviluppo delle soluzioni di cognitive computing e la loro applicazione in contesti di business non si arresta ed è destinato a potenziarsi sempre più grazie ai campi entro i quali si sta muovendo la ricerca, anche dal punto di vista delle infrastrutture e delle nanotecnologie. Questa storia di copertina vuole fissare un punto sulla situazione attuale e le future prospettive di questi sistemi, approfondendo elementi di evoluzione tecnologica e infrastrutturale, ma estendendo anche l’analisi agli impatti etici e sociali che la diffusione di queste tecnologie, comprese machine learning e robotica, potrà determinare sulle persone e sul nostro modo di concepire le relazioni uomo-macchina

Pubblicato il 26 Mag 2016

Dai primi esperimenti sulle cosiddette ‘reti neurali artificiali’, risalenti ormai a più di 30-40 anni fa, al cognitive computing di cui tanto si parla oggi, se n’è fatta di strada.

Certamente uno dei primi fattori abilitanti che hanno spinto l’Intelligenza Artificiale (AI) ai livelli dei giorni nostri (come analizzeremo in dettaglio più avanti) arriva dalla capacità computazionale: oggi la potenza di calcolo dei sistemi è tale da ‘reggere’ la scalabilità delle soluzioni di AI che necessitano di grandissima capacità di elaborazione sui dati (sempre in crescita), contrariamente ai primi esperimenti su reti neurali che ‘fallirono’ proprio per la mancanza di infrastrutture hardware adeguate. “Una trentina di anni fa una rete neurale impiegava circa due settimane per riconoscere lo zero dall’uno”, ricorda Diego Lo Giudice, Vice President, Principal Analyst di Forrester. “Oggi questo si fa in una frazione di centesimo di secondo direttamente da uno smartphone” [grazie alle Gpu – graphics processing unit, unità di elaborazione molto più veloci delle Cpu a processare immagini 3D e grafica, e adatte al calcolo vettoriale che è tipico delle reti neurali – ndr]. Il secondo fattore di crescita va identificato nei Big data, suggerisce Lo Giudice, “oggi abbiamo a disposizione una mole di dati enorme, strutturati e non strutturati, destinata a diventare pressoché infinita con il crescere di fenomeni quali il Digitale, l’IoT e le Smart Machine”. E come vedremo, potenza di calcolo e accesso a un patrimonio pressoché infinto di dati diventano la base per un’ulteriore accelerazione dei sistemi cognitivi, verso la cosiddetta ‘strong AI’ basata sull’auto-apprendimento delle macchine.

Cos’è l’intelligenza artificiale, focus su cognitive computing, smart machine

L’intelligenza artificiale è la disciplina che racchiude le teorie e le tecniche pratiche per lo sviluppo di algoritmi che consentono alle macchine di mostrare attività intelligenti, per lo meno in specifici domini e ambiti applicativi.

Una delle criticità più evidenti riguarda la definizione formale delle funzioni sintetiche/astratte di ragionamento, meta-ragionamento e apprendimento dell’uomo, per poter poi costruire dei modelli computazionali in grado di concretizzare tali forme di ragionamento e apprendimento. Ed è cercando di risolvere tali problematiche che nasce, verso la fine degli anni ’50, il Machine Learning come ‘sotto-disciplina’ dell’AI che si occupa dello studio e modellamento di algoritmi che possono imparare dai dati, estrapolando da essi nuova conoscenza. “È sul termine Learn che questa disciplina esprime la forza tecnologica”, afferma Gianluigi Castelli, Professor of Management Information Systems Sda Bocconi School of Management, Devo Lab Director: “Si parla di sistemi in grado di apprendere autonomamente sulla base dell’osservazione e che aprono dunque le porte al Cognitive Computing, inteso come piattaforme tecnologiche basate sulle discipline scientifiche dell’AI (tra cui Machine e Deep Learning) e il Signal Processing [la cosiddetta elaborazione dei segnali è una tecnologia che racchiude la teoria fondamentale, le applicazioni di intelligenza artificiale, gli algoritmi e le implementazioni di elaborazione o di trasferimento delle informazioni contenute in diversi sistemi – sia fisici sia digitali – largamente designate come ‘segnali’; è una tecnologia che utilizza rappresentazioni matematiche, statistiche, euristiche, linguistiche attraverso procedimenti di modeling, analysis, discovery, recovery, sensing, acquisition, extraction, learning, security, ndr]”.

Figura 1 – Esempi di problemi sui quali il supporto del Quantum computer è fondamentale – fonte: Ibm

Nel caso del Cognitive Computing parliamo dunque di piattaforme tecnologiche in grado di apprendere autonomamente (Machine Learning), ragionare (Reasoning), comprendere, elaborare e utilizzare il linguaggio naturale dell’uomo, comprese le capacità visive e dialettiche (Nlp – Natural Language Processing).

Nulla a che vedere con le Smart Machine entro le quali ricadono, secondo la convenzionale definizione stabilita dall’informatica, tutti i device cosiddetti intelligenti perché in grado di comunicare attraverso le tecnologie Machine-to-Machine tra cui si annoverano anche i Robot e le self-drive car, per citare esempi oggi piuttosto noti. Ma questa è la teoria, nella pratica il confine tra Smart Machine e Cognitive Computing è abbastanza sottile, dato che ad oggi molti device classificabili come Smart Machine in realtà coniugano al proprio interno anche sistemi di elaborazione cognitiva che sono in grado di prendere decisioni e risolvere problemi senza intervento umano.

Sul fronte del Cognitive Computing abbiamo interpellato Alessandro Curioni, Vice President Europe e Direttore del Research – Zurich Lab di Ibm il quale per sgombrare qualsiasi dubbio al riguardo fa una doverosa premessa, spiegando cosa significa Cognitive Computing nell’accezione che Ibm vuole dare a tali tecnologie: “Per noi si tratta di macchine in grado di macinare una grande quantità di dati nella loro ‘interezza’, ossia nella loro ‘forma’ naturale (dati non strutturati), imparando poi a restituire attraverso analisi avanzate e correlazioni, informazioni utili all’uomo”.

Torna quindi alla luce il concetto di ‘learn’, auto apprendimento della macchina, sul quale però Curioni intende puntualizzare ancora una volta la visione di Big Blue: “Noi non abbiamo alcuna intenzione di emulare il cervello umano; a nostro avviso non c’è ragione nel voler duplicare quello che l’uomo è già in grado di compiere da solo. La tecnologia ‘cognitiva’ e reti neurali/intelligenza artificiale devono semmai diventare strumenti in grado di aumentare le capacità umane, non replicarle o sostituirle”.

La maturità dei sistemi di cognitive computing/machine learning, le soluzioni deep learning

“Il vero ‘giro di boa’ per reti neurali e intelligenza artificiale – secondo Lo Giudice – è segnato dalla maturità dei sistemi di Machine Learning ovvero il Deep Learning: nelle ‘precedenti fasi’ dell’AI , le macchine dovevano comunque essere programmate e ‘istruite’ perché si comportassero in modo simile alla mente umana, ovvero si programmavano sistemi esperti, sistemi di comprensione del linguaggio naturale, e altri sistemi AI fornendo le regole, le grammatiche linguistiche, ontologie, dati e conoscenza, e algoritmi cercando di simulare il ragionamento umano”.

Ne parla al passato Lo Giudice, pensando alle nuove frontiere che già oggi, in termini di applicazioni per l’intelligenza artificiale, ricerca e sperimentazione, si aprono in questi ambiti. In realtà, se pensiamo a come hanno operato molti dei sistemi AI in passato e nelle prime battute anche Watson di Ibm, alla base c’è molto dell’AI della ‘fase 1’, se così possiamo definirlo; Watson è programmato per essere un super esperto, ma deve essere istruito a lungo per poter ‘esercitare’ le proprie funzioni all’interno dell’ambito applicativo desiderato.

La ‘fase 2’ è quella che avvicina maggiormente un sistema AI alla capacità di autoapprendimento di noi umani ‘rispolverando’ i principi fondamentali delle reti neurali e aprendo le porte al Deep Learning – una forma avanzati di cognitive computing/Machine Learning: a differenza dei sistemi dell’AI fase 1, che raccolgono, strutturano e ‘incanalano’ enormi moli di dati e regole che possono essere sfruttati attraverso modelli algoritmici e di ragionamento utilizzati per ‘insegnare’ alle macchine a riconoscere schemi come pensati da noi umani e quindi capaci di elaborare ed analizzare tali dati, i secondi sono sistemi che ‘imparano’ molto più in fretta, lo possono fare anche in modo non assistito, dove diversi ‘strati’ di reti neurali consentono di incanalare i dati progressivamente, fino ad adattare la rete al riconoscimento o raggiungimento dell’obiettivo, sviluppando una capacità di apprendimento fino ad oggi ‘riservata’ agli esseri umani.

“Ad oggi i sistemi di AI basati su sistemi di Deep Learning, che è da distinguere dagli algoritmi di Machine Learning più tradizionalmente basati su algoritmi statistici di analytics o sui più avanzati di analisi predittiva, sono in fase avanzata di ricerca e sperimentazione con anche qualche iniziale uso industriale. Sono sistemi paragonabili alla mente di un bambino di circa 4 anni – suggerisce Lo Giudice -, molto elastica e con una capacità di apprendimento rapida ma ancora ‘immatura’ per compiere azioni complesse”, fermo restando cosa debba intendersi per ‘azioni complesse’ sulla cui questione dibattono da decenni matematici, ingegneri, neuro scienziati, psicologi, filosofi, sociologi, ecc. L’uso combinato delle tecniche AI della fase 1 con il Machine Learning / Deep Learning rappresenta la nuova e grande frontiera dell’AI.

Dal punto di vista informatico molti esperti oggi dividono la disciplina in ‘weak AI’ e ‘strong AI’: la prima, nota anche come ‘narrow AI’, identifica i cosiddetti sistemi ‘deboli’ e non senzienti focalizzati su un task ben preciso (l’applicazione Siri ne è un esempio perché pur comprendendo il linguaggio naturale opera in un’area predefinita di argomenti e non è in grado di auto-apprendere); nella seconda branca, invece, rientrano macchine auto-apprendenti dotate di sensi e mente che consentono applicazioni di intelligenza artificiale in modo ‘general purpose’ per risolvere qualsiasi tipo di problema. “Un esempio di ‘strong AI’ arriva da Google che nel 2014 ha acquisito la società DeepMind – descrive Castelli -. Google DeepMind ha implementato un algoritmo di una rete neurale multilivello in cui il processo decisionale avviene per scala gerarchica attraverso l’aggregazione di informazioni elementari che vengono processate dalle reti neurali di più basso livello (il modello di funzionamento, anche se ‘rozzo’, è esattamente quello del cervello umano), senza essere specificamente istruito a priori, senza quindi imporre una logica algoritmica all’interno del sistema stesso; il sistema va per autoapprendimento attraverso l’osservazione e l’esperienza: nel caso del gioco Go, AlphaGo (il sistema costruito su DeepMind) prima ha osservato i giocatori e poi ha imparato giocando fino ad accrescere le sue abilità e battere quello che è considerato l’esperto di più alto livello del gioco”.

“Le enormi potenzialità del Deep Learning si sono viste già nella prima applicazione di Google DeepMind – aggiunge David Orban, imprenditore e investitore di start-up tecnologiche, autore di numerose pubblicazioni sul tema dell’AI, membro della Facoltà e Advisor della Singularity University (un’università interdisciplinare la cui missione è formare ed ispirare grandi leader che si sforzano di capire e facilitare lo sviluppo di nuove tecnologie al fine di affrontare le grandi sfide dell’umanità) -; il sistema è stato ‘messo a giocare’ a Breakout (un videogioco sviluppato e distribuito da Atari a partire dal 1976) e ne ha compreso le regole intuendo come risolverlo in poche ore. Nei primi 10 minuti di gioco le prestazioni di DeepMind sono state davvero deludenti, dopo un’ora giocava già a un livello medio, dopo sole due ore aveva intuito la strategia vincente”.

Allo stato attuale dell’arte prendendo esempio da Ibm con Watson e Google con TensorFlow e DeepMind (questi ultimi orientati al deep learning), come elementi di confronto sul fronte dell’AI [ma sottolineando come già oggi siano disponibili diverse piattaforme di cognitive computing machine learning come Haven onDemand di Hpe o i Cognitive Services di Microsoft sul fronte della sentiment analysis, del riconoscimento vocale e facciale – ndr], secondo l’opinione condivisa di Castelli, Lo Giudice e Orban, “una delle peculiarità legate a Watson è il modo attraverso il quale è necessario istruire la macchina, le modalità con cui si vanno a costruire le ontologie ovvero le categorie di ragionamento di Watson. L’approccio di Google con DeepMind funziona in modo completamente differente: non richiede che gli vengano costruite delle ontologie, ma è in grado (con una rete neurale e tantissimi dati in input, dandogli delle semplici informazioni preliminari di base) di sviluppare il proprio apprendimento autonomamente”.

Cognitive computing, quali limiti e ‘questioni aperte’ relative all’intelligenza artificiale e alle sue applicazioni

Abbiamo quindi analizzato con l’aiuto di Curioni alcuni fondamentali aspetti delle tecnologie di Cognitive Computing per capire quali siano, oggi, i limiti e gli elementi critici di attenzione sui quali la stessa Ibm sta lavorando. Suddividendo concettualmente gli aspetti tecnologici in base alla loro funzione, sono quattro le aree identificate da Curioni nella sua analisi:

  1. Understand: “La componente tecnologica che si occupa della correlazione di dati ed eventi oggi è ad ottimi livelli prestazionali; i sistemi cognitivi sono in grado di riconoscere testi, immagini, tabelle, video, ecc. e per ognuno di essi estrapolare le informazioni. Non vi sono particolari criticità su questo fronte”, dice il ricercatore.
  2. Reasoning: “In questo caso parliamo di tecnologie cosiddette ‘di ragionamento’ quelle che consentono di ‘mettere insieme’ le informazioni raccolte secondo precise considerazioni in modo automatizzato (attraverso gli algoritmi)”, continua Curioni: “In quest’area ci sono ancora margini di miglioramento, soprattutto per rendere la macchina autonoma e ridurre l’intervento degli esperti di dominio”.
  3. Learning: “La semplificazione degli algoritmi è un’altra delle aree dove sarà necessario intervenire in termini di miglioramento: gli algoritmi attraverso i quali gli input di dati vengono trattati per restituire gli output desiderati hanno un livello di complessità più elevato rispetto al volume di dati analizzati [la quantità di elaborazione necessaria per analizzare il sistema non cresce in modo lineare rispetto al volume del sistema stesso, ma in modo esponenziale: più la ‘rete neurale’ cresce e diventa complessa più i sistemi computazionali alla base devono aumentare per supportare tale complessità, ma questi ultimi crescono 2, 4, 10, 100, 1000 ecc. volte di più rispetto alla crescita degli algoritmi, che dovrebbero quindi essere semplificati per impattare meno sull’hardware, ndr]”, si sta dunque lavorando per ‘alleggerirli’.
  4. Human Machine Interaction: “Bisogna migliorare il livello di interazione tra uomini e macchina portando le macchine a interagire con l’uomo attraverso il linguaggio naturale”, è il pensiero di Curioni. “Non solo, anche elevare il livello e la capacità del Learning: fare in modo che le macchine possano imparare anche mediante il linguaggio naturale”. Le difficoltà maggiori, su questo fronte, riguardano anche gli skill: “In quest’ambito servono competenze multidisciplinari: esperti informatici con competenze specifiche di AI, soprattutto sul fronte del Deep Learning, esperti di psicologia e sociologia che aiutino a sviluppare interfacce che non siano solo ‘usable’ ma che risultino ‘naturali’ per l’essere umano che le utilizza”, spiega Curioni.

Guardando poi alle ‘questioni aperte’ e cioè alle implicazioni che l’intelligenza artificiale con le applicazioni relative e il Cognitive Computing generano sul fronte dello sviluppo tecnologico “riguardano soprattutto – spiega Castelli – due aspetti principali, anche se va detto che quanto disponibile per approfondimenti non sempre corrisponde al reale stato di avanzamento delle tecnologie (spesso ci sono implicazioni e ambiti di utilizzo militare o di altra natura ‘sensibile’ non enunciati e non certo di dominio pubblico): i componenti miniaturizzati e la potenza di calcolo. Tutta l’evoluzione dei chip neuronali, per riuscire ad avere intelligenza distribuita ma contenuta all’interno di singoli componenti, è a mio avviso ancora piuttosto lenta: oggi abbiamo a disposizione reti neurali per l’intelligenza artificiale ancora abbastanza semplici che arrivano al milione di neuroni e relative sinapsi (ben lontana dalla complessità non solo del cervello umano ma anche di un topo). Sul fronte della potenza di calcolo, man mano che conosceremo realmente tutti gli elementi funzionali del cervello dovremo capire qual è la potenza di calcolo parallelo necessario per riuscire a farne una vera simulazione (secondo alcuni studiosi si dovrebbe riuscire a compiere una reale simulazione intorno al 2030). Non vedo invece particolari criticità sul piano degli algoritmi: basterà continuare a farli lavorare nella logica del Deep Learning e affineranno sempre più la capacità di correlare e pensare”, conclude Castelli.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 5