Dai primi esperimenti sulle cosiddette ‘reti neurali artificiali’, risalenti ormai a più di 30-40 anni fa, al cognitive computing di cui tanto si parla oggi, se n’è fatta di strada.
Certamente uno dei primi fattori abilitanti che hanno spinto l’Intelligenza Artificiale (AI) ai livelli dei giorni nostri (come analizzeremo in dettaglio più avanti) arriva dalla capacità computazionale: oggi la potenza di calcolo dei sistemi è tale da ‘reggere’ la scalabilità delle soluzioni di AI che necessitano di grandissima capacità di elaborazione sui dati (sempre in crescita), contrariamente ai primi esperimenti su reti neurali che ‘fallirono’ proprio per la mancanza di infrastrutture hardware adeguate. “Una trentina di anni fa una rete neurale impiegava circa due settimane per riconoscere lo zero dall’uno”, ricorda Diego Lo Giudice, Vice President, Principal Analyst di Forrester. “Oggi questo si fa in una frazione di centesimo di secondo direttamente da uno smartphone” [grazie alle Gpu – graphics processing unit, unità di elaborazione molto più veloci delle Cpu a processare immagini 3D e grafica, e adatte al calcolo vettoriale che è tipico delle reti neurali – ndr]. Il secondo fattore di crescita va identificato nei Big data, suggerisce Lo Giudice, “oggi abbiamo a disposizione una mole di dati enorme, strutturati e non strutturati, destinata a diventare pressoché infinita con il crescere di fenomeni quali il Digitale, l’IoT e le Smart Machine”. E come vedremo, potenza di calcolo e accesso a un patrimonio pressoché infinto di dati diventano la base per un’ulteriore accelerazione dei sistemi cognitivi, verso la cosiddetta ‘strong AI’ basata sull’auto-apprendimento delle macchine.
Indice degli argomenti
Cos’è l’intelligenza artificiale, focus su cognitive computing, smart machine
L’intelligenza artificiale è la disciplina che racchiude le teorie e le tecniche pratiche per lo sviluppo di algoritmi che consentono alle macchine di mostrare attività intelligenti, per lo meno in specifici domini e ambiti applicativi.
Who's Who
Gianluigi Castelli

Una delle criticità più evidenti riguarda la definizione formale delle funzioni sintetiche/astratte di ragionamento, meta-ragionamento e apprendimento dell’uomo, per poter poi costruire dei modelli computazionali in grado di concretizzare tali forme di ragionamento e apprendimento. Ed è cercando di risolvere tali problematiche che nasce, verso la fine degli anni ’50, il Machine Learning come ‘sotto-disciplina’ dell’AI che si occupa dello studio e modellamento di algoritmi che possono imparare dai dati, estrapolando da essi nuova conoscenza. “È sul termine Learn che questa disciplina esprime la forza tecnologica”, afferma Gianluigi Castelli, Professor of Management Information Systems Sda Bocconi School of Management, Devo Lab Director: “Si parla di sistemi in grado di apprendere autonomamente sulla base dell’osservazione e che aprono dunque le porte al Cognitive Computing, inteso come piattaforme tecnologiche basate sulle discipline scientifiche dell’AI (tra cui Machine e Deep Learning) e il Signal Processing [la cosiddetta elaborazione dei segnali è una tecnologia che racchiude la teoria fondamentale, le applicazioni di intelligenza artificiale, gli algoritmi e le implementazioni di elaborazione o di trasferimento delle informazioni contenute in diversi sistemi – sia fisici sia digitali – largamente designate come ‘segnali’; è una tecnologia che utilizza rappresentazioni matematiche, statistiche, euristiche, linguistiche attraverso procedimenti di modeling, analysis, discovery, recovery, sensing, acquisition, extraction, learning, security, ndr]”.

Nulla a che vedere con le Smart Machine entro le quali ricadono, secondo la convenzionale definizione stabilita dall’informatica, tutti i device cosiddetti intelligenti perché in grado di comunicare attraverso le tecnologie Machine-to-Machine tra cui si annoverano anche i Robot e le self-drive car, per citare esempi oggi piuttosto noti. Ma questa è la teoria, nella pratica il confine tra Smart Machine e Cognitive Computing è abbastanza sottile, dato che ad oggi molti device classificabili come Smart Machine in realtà coniugano al proprio interno anche sistemi di elaborazione cognitiva che sono in grado di prendere decisioni e risolvere problemi senza intervento umano.
Sul fronte del Cognitive Computing abbiamo interpellato Alessandro Curioni, Vice President Europe e Direttore del Research – Zurich Lab di Ibm il quale per sgombrare qualsiasi dubbio al riguardo fa una doverosa premessa, spiegando cosa significa Cognitive Computing nell’accezione che Ibm vuole dare a tali tecnologie: “Per noi si tratta di macchine in grado di macinare una grande quantità di dati nella loro ‘interezza’, ossia nella loro ‘forma’ naturale (dati non strutturati), imparando poi a restituire attraverso analisi avanzate e correlazioni, informazioni utili all’uomo”.
Torna quindi alla luce il concetto di ‘learn’, auto apprendimento della macchina, sul quale però Curioni intende puntualizzare ancora una volta la visione di Big Blue: “Noi non abbiamo alcuna intenzione di emulare il cervello umano; a nostro avviso non c’è ragione nel voler duplicare quello che l’uomo è già in grado di compiere da solo. La tecnologia ‘cognitiva’ e reti neurali/intelligenza artificiale devono semmai diventare strumenti in grado di aumentare le capacità umane, non replicarle o sostituirle”.
La maturità dei sistemi di cognitive computing/machine learning, le soluzioni deep learning
“Il vero ‘giro di boa’ per reti neurali e intelligenza artificiale – secondo Lo Giudice – è segnato dalla maturità dei sistemi di Machine Learning ovvero il Deep Learning: nelle ‘precedenti fasi’ dell’AI , le macchine dovevano comunque essere programmate e ‘istruite’ perché si comportassero in modo simile alla mente umana, ovvero si programmavano sistemi esperti, sistemi di comprensione del linguaggio naturale, e altri sistemi AI fornendo le regole, le grammatiche linguistiche, ontologie, dati e conoscenza, e algoritmi cercando di simulare il ragionamento umano”.
Ne parla al passato Lo Giudice, pensando alle nuove frontiere che già oggi, in termini di applicazioni per l’intelligenza artificiale, ricerca e sperimentazione, si aprono in questi ambiti. In realtà, se pensiamo a come hanno operato molti dei sistemi AI in passato e nelle prime battute anche Watson di Ibm, alla base c’è molto dell’AI della ‘fase 1’, se così possiamo definirlo; Watson è programmato per essere un super esperto, ma deve essere istruito a lungo per poter ‘esercitare’ le proprie funzioni all’interno dell’ambito applicativo desiderato.
La ‘fase 2’ è quella che avvicina maggiormente un sistema AI alla capacità di autoapprendimento di noi umani ‘rispolverando’ i principi fondamentali delle reti neurali e aprendo le porte al Deep Learning – una forma avanzati di cognitive computing/Machine Learning: a differenza dei sistemi dell’AI fase 1, che raccolgono, strutturano e ‘incanalano’ enormi moli di dati e regole che possono essere sfruttati attraverso modelli algoritmici e di ragionamento utilizzati per ‘insegnare’ alle macchine a riconoscere schemi come pensati da noi umani e quindi capaci di elaborare ed analizzare tali dati, i secondi sono sistemi che ‘imparano’ molto più in fretta, lo possono fare anche in modo non assistito, dove diversi ‘strati’ di reti neurali consentono di incanalare i dati progressivamente, fino ad adattare la rete al riconoscimento o raggiungimento dell’obiettivo, sviluppando una capacità di apprendimento fino ad oggi ‘riservata’ agli esseri umani.