Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

Fujitsu: “La nostra AI spiega il perché delle sue conclusioni”

pittogramma Zerouno

Intervista

Fujitsu: “La nostra AI spiega il perché delle sue conclusioni”

Le capacità inferenziali degli algoritmi di machine learning e deep learning non sono sufficienti in campi di studio come la ricerca medica, in cui, prima di validare la correttezza dei dati, è necessario verificare e comprendere perché l’intelligenza artificiale sia giunta a determinate conclusioni. Ecco perché, sottolinea in questa intervista Yoshikuni Takashige, Vice President Marketing Strategy and Vision di Fujitsu, in discipline critiche è fondamentale poter contare su una ‘explainable AI’

15 Giu 2018

di Giorgio Fusari

MILANO – Trasformare il patrimonio di dati raccolti in reale valore, cioè informazioni utili a migliorare l’attività imprenditoriale, è un refrain che risuona di continuo nel mondo aziendale come, del resto, sembrano ormai tutti d’accordo nel riconoscere che l’intelligenza artificiale (AI) in senso lato rappresenti lo strumento principe per estrarre tali ‘insights’. Tuttavia, come emerge dai dati presentati da Yoshikuni Takashige, Vice President Marketing Strategy and Vision di Fujitsu intervistato da ZeroUno a margine del recente Fujitsu World Tour di Milano, compiere davvero la trasformazione digitale non sta rivelandosi facile come sarebbe potuto sembrare all’inizio: secondo una ricerca condotta da Fujitsu nell’agosto-settembre 2017 su circa 1600 dirigenti aziendali, l’87% dei business leader riscontra sì nella propria organizzazione una cultura dell’innovazione, ma il 66% afferma che i progetti digitali falliti pregiudicano la possibilità di perseguirli in futuro, e il 71% si dice preoccupato della propria capacità di adattarsi al nuovo scenario.

Avere successo in questo campo, chiarisce Takashige, dipende anche dalla capacità d’introdurre una AI diversa, umano-centrica, in grado di superare i limiti di quella attuale: in altre parole più adatta a collaborare con le persone, per arrivare alla co-creazione di nuovo valore e innovazione.

Ma quale differenza, domandiamo, rende la tecnologia AI di Fujitsu particolare rispetto ad altre? “La AI è naturalmente molto importante per elaborare i dati, creare conoscenza e ottenere nuovi insight; le sue finalità sono enormi e il machine learning è solo un suo componente. Occorrono funzionalità di riconoscimento e ricerca semantica per comprendere il significato di ciò che si trova, e la nostra AI è particolarmente abile nel riconoscimento delle immagini e del video. Possediamo una potente tecnologia core di machine learning che i nostri competitor non hanno, e che viene sviluppata nei nostri laboratori. Fujitsu ha una lunga storia, di oltre trent’anni, nello sviluppo della AI. Abbiamo due tecnologie: Deep Tensor e Knowledge Graph, entrambe molto potenti e combinandole possiamo realizzare una ‘explainable AI’”.

Cosa intende, esattamente, con questa AI ‘spiegabile’? “L’attuale tecnologia di deep learning è in grado di elaborare enormi volumi di dati, identificando gli schemi sottostanti, e fornendo nuovi suggerimenti, ma questa abilità di inferire in automatico conclusioni, dopo aver appreso da gigantesche moli d’informazioni, ha il limite di non spiegare il ragionamento, le ragioni che stanno dietro tali deduzioni. Con la nostra explainable AI, attraverso il machine learning eseguito da Deep Tensor, impariamo dai dati per fornire conclusioni e informazioni innovative, ma abbiamo anche la tecnologia Knowledge Graph, in grado di visualizzare le relazioni tra i dati in rappresentazioni grafiche, che spiegano perché la AI è giunta a una determinata conclusione”. Ciò, dice il top manager, è fondamentale in ambiti di studio come la ricerca medica sul cancro, in cui gli esperti, anche da un punto di vista etico, prima di confermare e sottoscrivere la correttezza dei fattori chiave riscontrati alla base dell’insorgere della malattia, devono verificare le fonti della letteratura accademica in materia, e comprendere perché l’algoritmo di deep learning sia arrivato a quel dato risultato.

Giorgio Fusari

Giornalista

Nel settore giornalistico dal 1989, Giorgio Fusari negli anni ha collaborato per numerose pubblicazioni nel panorama tecnologico e ICT italiano, tra cui la rivista NetworkWorld Italia (gruppo IDG); il settimanale di tecnologia @alfa, del quotidiano Il Sole 24 Ore, la testata Linea EDP. Dal 2012 collabora con il gruppo Digital360 e in particolare con ZeroUno. Tra le aree di maggior specializzazione di Giorgio, il crescente universo dei servizi cloud, il networking, le tecnologie di cybersecurity.

Argomenti trattati

Personaggi

Yoshikuni Takashige

Approfondimenti

I
Intelligenza Artificiale
Fujitsu: “La nostra AI spiega il perché delle sue conclusioni”

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

    LinkedIn

    Twitter

    Whatsapp

    Facebook

    Link

    Articolo 1 di 4