Prospettive

Intelligenza Artificiale: percorsi di implementazione, ostacoli da rimuovere

Uno studio IBM, su un campione internazionale di oltre 4500 aziende, evidenzia quali siano oggi le barriere all’adozione di una tecnologia destinata, anche per gli investimenti previsti nei prossimi anni, a impattare profondamente sui modelli organizzativi, culturali e competitivi delle imprese. Tra i “blocchi stradali” da rimuovere, senz’altro l’opacità di questi sistemi rispetto ai loro meccanismi decisionali, per giungere ad una fiducia ancora tutta da costruire.

Pubblicato il 04 Ago 2020

intelligenza artificiale implementazione 3 graphic

Ben vengano studi come il recente “From Roadblock to Scale: The Global Sprint Towards AI” di IBM, perché insistono nell’indagare, attraverso interviste dirette sul campo, un fenomeno, quello della diffusione dell’intelligenza artificiale nelle imprese e della sua applicazione ai diversi ambiti di business, che corre il rischio di essere etichettato “di moda”. Stiamo parlando invece di tecnologie alla base di una profonda e imminente rivisitazione dei modelli organizzativi di impresa, di nuovi utilizzi di intelligence messi al servizio delle persone, per sostenere uno sviluppo economico e competitivo delle aziende ma anche, evidentemente, una nuova direzione di evoluzione sociale.

Come sempre i numeri delle survey IBM sono significativi: lo scorso ottobre si è lavorato su un campione di 4514 aziende intervistate in tre regioni mondiali, Stati Uniti, Europa (Francia Germania, Spagna, UK e Italia) e Cina, per capire gli ostacoli all’adozione dell’intelligenza artificiale e le strategie di implementazione di un fenomeno che nei prossimi 18/24 mesi dovrebbe registrare una crescita esponenziale, entrando, in varie forme e capillarità, nell’80% circa delle aziende.

Timori e barriere all’adozione, ma si investe

Tipico di ogni fase evolutiva tecnologica importante, anche per le soluzioni di AI il timore principale nell’affrontare un percorso di implementazione è legato alla mancanza di competenze (37% delle imprese). Dietro questo dato si celano dubbi e paure che hanno rallentato fin qui la diffusione del fenomeno: ad esempio la consapevolezza di scarsa competenza si collega alla certezza di un aumento della quantità/complessità dei dati e della loro diffusione in azienda in silos difficili da integrare tra loro (31%), unitamente ad una ancora forte immaturità tecnologica nei tools per sviluppare modelli di AI efficaci (26%) e del rischio, sperimentato più volte in passato, del vendor lock-in (figura 1).

intelligenza artificiale implementazione 1 graphic
Figura 1 – Intelligenza artificiale implementazione: dubbi e paure Fonte: Studio IBM From Roadblock to Scale: The Global Sprint Towards AI

Tuttavia, va rimarcato come la survey rilevi che attualmente, 3 aziende su 4 utilizzino qualche forma e soluzione di AI, dalla piena integrazione all’avvio di fasi esplorative, con il 34% dei business che ha già implementato soluzioni di AI e il 39% delle aziende del campione che si trova nelle fasi esplorative di questa tecnologia (figura 2).

intelligenza artificiale implementazione 2 graphic
Figura 2 – Intelligenza artificiale implementazione: cosa fanno le aziende Fonte: Studio IBM From Roadblock to Scale: The Global Sprint Towards AI

La fotografia realizzata dallo studio conferma la concretezza delle imprese nell’affrontare questo tema. Non essendo infatti l’AI una semplice tecnologia ma un veicolo per una profonda trasformazione aziendale e culturale, emerge come elemento fondamentale la costruzione di una fiducia nell’AI come elemento primario per la sua diffusione; ciò significa sviluppare una capacità di comprenderne appieno i processi decisionali e gli impatti sulle modalità di lavoro e in generale sulla cultura aziendale, per garantire una reale e diffusa integrazione di queste soluzioni. Il 78% afferma infatti che deve aver totale fiducia che l’output di AI sia corretto, sicuro e affidabile.

In ogni caso, è chiaro che un’interpretazione della complessità informativa e competitiva del mercato, una maggiore velocità nel time to market, un’innovazione continua di operatività e di offerta, sono tutti aspetti che possono essere affrontati al meglio con una “intelligenza” artificiale che se correttamente implementata può contribuire ad un reale differenziale competitivo (figura 3). Per questo, nonostante le complessità tipiche delle fasi di partenza, nel 2020 è previsto aumenteranno gli investimenti in AI: in Soluzioni AI proprietarie (35%); Applicazioni “pronte all’uso” (34%); tools standard per costruire propri modelli di AI (33%); reskilling e sviluppo di nuove competenze (33%); Integrazione spinta (embedded) di tecnologie AI nelle attuali applicazioni e processi (28%); ricerca e sviluppo AI oriented (26%).

intelligenza artificiale implementazione 3 graphic
Figura 3 – Intelligenza artificiale implementazione: totale fiducia nell’AI Fonte: Studio IBM From Roadblock to Scale: The Global Sprint Towards

AI, per fare cosa?

Indipendentemente dall’area geografica, il campione si è suddiviso in modo uniforme tra aziende che puntano ad utilizzare soluzioni di AI per specifici progetti (48%) ed aziende che intendono diffondere tecnologie di AI in modo trasversale al proprio business (46%). Delle aziende che oggi stanno implementando soluzioni di AI, il 40% realizza dei PoC (Proof of Concept) per specifici progetti a base/supporto AI, mentre un altro 40% utilizza applicazioni preconfezionate di AI per specifici utilizzi (ad esempio per l’area chatbot). I 5 principali punti di impiego di soluzioni di AI, emerge sempre dallo studio IBM, sono: Data security (36%); Automazione dei processi (31%); Assistenti virtuali/chatbots (26%); Bpo-Business Process Optimization (24%); Analisi dati da sensoristica – IoT (24%).

Il Cloud è il modello elaborativo di riferimento, con all’orizzonte sempre il timore (53%) del vendor lock-in: tra le aziende che stanno esplorando soluzioni di AI, il private cloud è la piattaforma preferita (44% tra chi esplora, 27% chi ha adottato). Tra le aziende che stanno invece già implementando progetti di AI, il modello preferito è l’hybrid cloud (38% adottato, 26% in esplorazione) o addirittura un hybrid multi cloud (17% l’ha adottato, l’8% in fase di esplorazione).

Fiducia nell’AI significa capire il perché di certe decisioni

Ritorniamo brevemente su uno dei principali ostacoli alla diffusione delle tecnologie di AI: capire il perché i sistemi di AI arrivino a prendere/suggerire determinate decisioni/azioni è un passaggio obbligato per attivare quel senso di fiducia nei sistemi che porterà ad un’accelerazione della loro diffusione (83% dei rispondenti totali; 92% tra chi sta già implementando sistemi AI; 75% per chi si trova ancora nella fase di esplorazione). Si tratta di un aspetto delicatissimo: proprio poco tempo fa abbiamo avuto occasione di incontrare alla Fondazione Feltrinelli di Milano Francesca Rossi, scienziata di livello internazionale (nonché AI Ethics Global Leader di IBM), presente nei principali comitati di etica e sviluppo dell’Intelligenza Artificiale. La professoressa ha centrato il suo intervento proprio sul fatto che oggi si debba ancora costruire un concetto di “trust” tra uomo e macchina perché non c’è mai stata, fino ad ora, una condivisione di valori, di esperienza e di vissuto reciproco. Per questo i sistemi di AI/machine learning sono ancora “black box”, sistemi opachi non in grado di spiegare all’uomo perché suggeriscono determinate soluzioni. Questo è un vero “roadblock” (per riprendere il titolo dello studio IBM) per uno sviluppo corretto di quell’“Augmented intelligence” (un’intelligenza umana rafforzata e aumentata grazie a quella artificiale) che si integrerà alla vita, sia professionale sia personale, di ognuno di noi nei prossimi anni. Sarà infatti soprattutto su questa direttrice che si prevede si svilupperanno i software di AI nel prossimo futuro.
Partecipa a Storage IBM

Appendice. L’importanza della qualità del dato

A questo esauriente articolo di Stefano Uberti Foppa aggiungiamo, come redazione, una piccola appendice per sottolineare quanto sia importante la governance del dato in qualsiasi progetto di intelligenza artificiale e per farlo riportiamo l’esperienza recentemente illustrata da Giulia Baccarin, Co-Founder di Mipu (gruppo di imprese che si si avvalgono di tecnologie, servizi e competenze per raccogliere i dati presenti nelle aziende e usarli per prevedere fenomeni nel prossimo futuro) che spiega come il valore in un processo di creazione dell’intelligenza artificiale debba fondarsi su 3 caratteristiche riconducibili all’AI, che “va considerata buona se riesce a essere predittiva, cognitiva e interattiva”. Per illustrarlo, l’imprenditrice ha portato all’attenzione della platea il caso, seguito dalla sua società, di Edison: “Tradizionalmente, la previsione della produttività degli aerogeneratori è basata su modelli statistici geospaziali. Ma se in un progetto di AI voglio migliorare l’accuratezza della predizione, devo inserire anche le informazioni circa lo stato di saluto dell’aerogeneratore. Spesso sono informazioni insite in chi lavora sulla manutenzione, cioè l’operatore di campo. In altre parole, non è soltanto l’intelligenza artificiale che aiuta la manutenzione a essere più performante, ma siamo anche noi essere umani che con le nostre competenze possiamo arricchirla”.

L’esperienza di queste persone, a detta di Giulia Baccarin, deve confluire negli algoritmi, perché “spesso, quando parliamo di intelligenza artificiale, parliamo di proof of concept, data science, IT. Parliamo ancora troppo poco di competenza di dominio”.

Portare sul campo algoritmi di machine learning, per quanto costruiti su dataset ben strutturati, è la vera sfida da affrontare, in particolare nel settore in cui opera una realtà come Mipu: “Noi lavoriamo soprattutto nel mondo della fabbrica: processi produttivi, manutenzione ed energia. In questo mondo – ha sottolineato Baccarin – ci sono tre ordini di problemi quando si parla di dati: il primo è la presunzione di sovrabbondanza del dato. A seguito della diffusione dell’IoT e forse del decreto legge 102 del 2014 sull’efficienza energetica, abbiamo sensorizzato tutto e ci troviamo in una sorta di ‘infobesità’. Abbiamo una marea di dati che non sono sempre così buoni come pensiamo”. A questo si aggiunge che “nel mondo della fabbrica i dati sono sporchi”. Il che rende necessario “curare il dato il più vicino possibile alla sorgente, prima di fare data versioning e di immetterlo nell’intelligenza”. Infine, è importante avere una chiara strategia per capire “che cosa lascio in edge e che cosa porto in cloud”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4