Nella discussione sull’intelligenza artificiale, la domanda del ritorno sull’investimento resta centrale. Quante risorse conviene allocare, con quali tempi e quali metriche utilizzare per misurare i risultati? Nel podcast AI in Business di Emerj AI Research, Jason Hardy, Chief Technology Officer di Hitachi Vantara, ha offerto una prospettiva che ribalta le metriche tradizionali di successo. Il dato di partenza è chiaro: «circa il 90-93% dei progetti di AI fallisce».
Eppure, per Hardy, questo non significa che nove iniziative su dieci siano inutili. Al contrario, proprio da quelle esperienze emerge una parte fondamentale del ROI dell’AI, perché ogni fallimento porta informazioni utili a migliorare i sistemi, i dati e le competenze interne.
Indice degli argomenti
Un ROI che va oltre la riduzione dei costi
Nel linguaggio aziendale, il ROI è stato a lungo legato a parametri immediatamente tangibili: risparmi operativi, riduzione del personale o aumento diretto dei ricavi. Ma l’AI, spiega Hardy, richiede un cambiamento di prospettiva. «Il ROI era sempre un termine molto tradizionale”» ha osservato nel corso dell’intervista.
Con l’intelligenza artificiale, la logica si modifica. I benefici non si manifestano solo in bilancio, ma anche nella capacità di individuare inefficienze, rafforzare la qualità dei dati e rendere più resilienti i processi IT. È un ritorno sull’investimento che si costruisce nel tempo, anche quando i progetti non arrivano a piena produzione.
I numeri dietro il fallimento
La percentuale del 90% di insuccessi non è un’anomalia, ma un dato che Hardy considera parte integrante della fase sperimentale. Molti progetti AI vengono avviati senza una chiara roadmap e finiscono per scontrarsi con limiti di dati, infrastruttura o governance. Tuttavia, il restante 7-10% dimostra che l’investimento non è vano: «quel 8, 7, 6% che ha avuto successo e che è andato in produzione o almeno in una fase pilota ha dimostrato che ne vale la pena».
Il valore non sta quindi nella singola iniziativa, ma nell’insieme delle lezioni apprese. Per ogni progetto che non supera la fase di test, un altro viene rafforzato dalla consapevolezza maturata sugli errori precedenti.
Imparare dai dati incompleti
Uno degli effetti più rilevanti dei progetti falliti riguarda la qualità dei dati. Hardy lo ha spiegato con chiarezza: «molta di quell’energia deve essere investita anche nella pulizia dei dati o nel miglioramento degli altri processi IT».
Spesso, i tentativi di applicare modelli di AI portano alla luce buchi nei dataset, sistemi non integrati o informazioni contraddittorie. In questi casi, l’output non è un risultato operativo, ma una diagnosi puntuale delle criticità. L’azienda scopre dove i suoi processi informativi sono fragili e viene spinta a intervenire. Non è un ritorno immediato in termini economici, ma un vantaggio competitivo di medio periodo.
Un ritorno sull’investimento dilatato nel tempo
Per Hardy, il ROI dell’AI non può essere misurato trimestre per trimestre. È un processo che si sviluppa nell’arco di anni, in cui la resistenza ai fallimenti è tanto importante quanto la capacità di valorizzare i successi. «Stiamo davvero guardando a ciò dal punto di vista di cosa influenzerà nei prossimi due o tre anni e come migliorerà il business» ha dichiarato.
L’idea di “tenere duro” non è un incoraggiamento generico, ma la constatazione che le metriche di breve termine rischiano di scoraggiare progetti con un potenziale trasformativo. Secondo Hardy, il primo arrivato a consolidare una roadmap solida vedrà i benefici più consistenti, ma questo percorso implica inevitabilmente sprechi e tentativi andati a vuoto.
Lezioni invisibili ma decisive
Alcuni dei benefici che emergono dai progetti falliti non si traducono direttamente in nuove funzionalità AI, ma in miglioramenti strutturali. Hardy cita il caso di organizzazioni che, nel tentativo di costruire sistemi predittivi, hanno scoperto gravi incoerenze nei dati di partenza: «sui set dati tratti da alcuni di questi fallimenti ci sono buchi, sono incompleti».
Questa scoperta non produce un modello funzionante, ma obbliga a rivedere i processi aziendali e le fonti di informazione. Il ritorno sull’investimento, quindi, è la maggiore consapevolezza delle debolezze interne e l’avvio di progetti di data governance che altrimenti non sarebbero stati considerati prioritari.
Misurare ciò che non si vede
Il tema centrale sollevato da Hardy è la necessità di includere nel ROI dell’AI i progressi meno visibili, come la riorganizzazione delle infrastrutture IT o la maggiore trasparenza sui flussi di dati. Non sono voci di bilancio immediatamente misurabili, ma incidono sul modo in cui l’azienda potrà adottare l’AI in futuro.
Ogni fallimento può funzionare come una lente d’ingrandimento sui limiti organizzativi e tecnici. L’intelligenza artificiale, forzando la sperimentazione, diventa così uno strumento di autodiagnosi che produce benefici anche quando non raggiunge l’obiettivo prefissato.