I giganti della tecnologia, molte grandi aziende e servizi pubblici spenderanno circa 1 trilione di dollari in capex nei prossimi anni nell’intelligenza artificiale, inclusi investimenti significativi in data center, chip, altre infrastrutture di AI e rete elettrica.
Indice degli argomenti
Il paradosso di Solow e le statistiche sulla produttività
Durante il convegno organizzato da Ambrosetti sull’intelligenza artificiale tenutosi a Roma il 4 giugno, è stata posta come domanda quale fosse l’impatto dell’Intelligenza Artificiale sul sistema economico in relazione alla produttività ed in particolare se la cosiddetta rivoluzione della IA riuscirà finalmente a sfatare il paradosso di Solow, secondo il quale “la rivoluzione informatica si può vedere dappertutto, tranne che nelle statistiche sulla produttività”.
Robert Solow, premio Nobel per l’economia e padre della moderna teoria della crescita, pubblicò questa provocatoria affermazione sul New York Times nel lontano 1987, ed è opinione condivisa fra gli economisti liberisti che il suo paradosso sia stato risolto negli anni Novanta, in quanto i computer avevano bisogno di tempo per diffondersi e determinare degli effetti (diretti ed indiretti) sulla produttività.
Tuttavia, negli anni 2000 e seguenti la crescita della produttività è tornata a ridursi, tanto che, come si accennava, è riemerso il dibattito sul paradosso di Solow.
Il tasso di crescita delle economie capitaliste negli ultimi anni continua ad essere estremamente basso, e anche il tasso di profitto, dopo la ripresa iniziata nella metà degli anni Ottanta, è tornato a calare, e ciò solleva importanti interrogativi sulla relazione tra tecnologia, produttività e crescita economica, continuando ad essere oggetto di studio e dibattito nel campo dell’economia, soprattutto da parte degli apologeti del capitalismo (almeno di quelli di matrice schumpeteriana) che credono che il progresso tecnologico sia il motore dell’economia.
Il fenomeno, in un certo senso, si ripete anche con l’avvento dell’intelligenza artificiale, dove si constata un’ampia e rapida diffusione di questa tecnologia, ma i suoi effetti sulla produttività complessiva non sono ancora del tutto chiari.

L’AI e l’impatto sulla produttività
Daron Acemoglu, premio Nobel per l’economia nel 2024 e professore al MIT, che è stato ospite illustre al recente Festival dell’Economia a Trento, stima che solo un quarto delle attività esposte all’IA può essere considerata “conveniente” da automatizzare entro i prossimi dieci anni, il che implica che l’IA avrà un impatto su meno del 5% di tutte le attività.
Acemoglu non crede alla narrazione secondo cui le tecnologie migliorano e diventano meno costose nel tempo, sostenendo che i progressi dei modelli di intelligenza artificiale probabilmente non si verificheranno così rapidamente, o saranno così impressionanti, come molti ritengono. Si chiede inoltre se effettivamente l’adozione dell’intelligenza artificiale creerà nuove attività e prodotti, affermando che questi impatti “non sono una legge della natura”. Quindi, prevede che l’intelligenza artificiale aumenterà la produttività degli Stati Uniti solo dello 0,5% e la crescita del PIL solo dello 0,9% cumulativamente nel prossimo decennio.

Per una più completa disamina dell’analisi di Acemoglu, bisogna considerare che, in generale, esistono quattro diversi canali per un aumento della produttività, intesa come produttività del lavoro o TFP (Total Factor Productivity):
- automazione di mansioni
- complementarità rispetto a mansioni non automatizzate
- rafforzamento dell’automazione già acquisita
- nuove mansioni
Acemoglu prende in considerazione nella sua analisi solo i primi due fattori, probabilmente perché meno complessi da stimare. Le differenze nella previsione di Acemoglu sembrano ruotare più intorno alla tempistica degli impatti economici dell’AI, che alla promessa finale della tecnologia.
Secondo Acemoglu, la GenAI ha il potenziale per cambiare radicalmente il processo di scoperta scientifica, ricerca e sviluppo, innovazione, test di nuovi prodotti e materiali, ecc. nonché per creare nuovi prodotti e piattaforme.
Tuttavia, data l’attenzione e l’architettura della tecnologia di intelligenza artificiale generativa di oggi, questi cambiamenti veramente trasformativi non avverranno rapidamente, e probabilmente soltanto pochi, se non nessuno, si verificheranno entro i prossimi dieci anni.
In quest’orizzonte, la tecnologia AI aumenterà invece principalmente l’efficienza dei processi produttivi esistenti, automatizzando determinate attività o rendendo più produttivi i lavoratori che svolgono queste attività. Pertanto, la stima dei guadagni in termini di produttività e crescita della tecnologia AI su un orizzonte più breve dipenderanno interamente dal numero di processi produttivi sui quali la tecnologia riuscirà ad impattare efficacemente e dal livello di aumento della produttività o riduzione di costi in questo lasso di tempo.
La sua ipotesi è che il numero di attività che l’AI influenzerà nel breve periodo non sarà enorme. Molti compiti attualmente svolti dagli esseri umani, ad esempio nei settori dei trasporti, della produzione, ecc., sono sfaccettati e richiedono un’interazione nel mondo reale, che l’intelligenza artificiale, secondo Acemoglu, non sarà in grado di migliorare materialmente in tempi brevi. Quindi, i maggiori impatti della tecnologia nei prossimi anni ruoteranno molto probabilmente attorno ad attività puramente intellettuali, che non sono banali in numero e dimensioni, ma nemmeno enormi.
L’impatto dell’AI, gli studi a confronto
Per quantificare questa affermazione, Acemoglu ha utilizzato lo studio di Eloundou et al. secondo cui la combinazione di intelligenza artificiale generativa, altre tecnologie di intelligenza artificiale e visione artificiale potrebbe trasformare poco più del 20% delle attività a valore aggiunto nel processo di produzione. Ma questa è una previsione atemporale. Quindi, ha esaminato un altro studio di Thompson et al. su un sottoinsieme di queste tecnologie (come la visione artificiale), in cui viene stimato che circa un quarto delle attività che questa tecnologia può eseguire potrebbe essere automatizzato in modo economico entro dieci anni.
Se solo il 23% delle attività esposte fosse conveniente da automatizzare entro i prossimi dieci anni, ciò suggerirebbe che solo il 4,6% di tutte le attività potrebbe essere influenzato dall’intelligenza artificiale. Combinando questo valore con le stime di risparmio medio del costo del lavoro del 27% degli studi di Noy e Zhang e Brynjolfsson et al. , gli effetti totali sulla produttività entro il prossimo decennio non dovrebbero essere superiori allo 0,66%, e un ancora più basso 0,53% se si tiene conto della complessità delle attività difficili da apprendere. Questo valore si traduce approssimativamente in un impatto previsto del PIL dello 0,9% nel decennio.
Ma l’economista globale senior di Goldman Sach Joseph Briggs è più ottimista. Egli stima che l’intelligenza artificiale generativa automatizzerà il 25% di tutte le attività lavorative e aumenterà la produttività degli Stati Uniti del 9% e la crescita del PIL cumulativamente del 6,1% nel prossimo decennio. Sebbene Briggs riconosca che l’automazione di molte attività esposte all’IA non è oggi conveniente, sostiene che l’ampio potenziale di risparmio sui costi e la probabilità che i costi diminuiscano nel lungo periodo, come spesso accade con le nuove tecnologie, dovrebbero alla fine portare a una maggiore automazione dell’IA.
A differenza di Acemoglu, Briggs incorpora sia il potenziale di riallocazione del lavoro che la creazione di nuove attività nelle sue stime di produttività, coerentemente con la forte e lunga storia di innovazione tecnologica che generalmente guida la nascita e lo sviluppo di nuove opportunità.
Questa dinamica si è chiaramente manifestata in seguito all’emergere della tecnologia dell’informazione, che ha creato nuove occupazioni, come ad esempio i progettisti di pagine web, gli sviluppatori di software e i professionisti del marketing digitale e ha indirettamente guidato la domanda di lavoratori del settore dei servizi in aree come la sanità, l’istruzione e i servizi di ristorazione, ed è visibile su un orizzonte molto più ampio nei lavori recenti dell’economista del MIT David Autor e coautori.
Utilizzando i dati del censimento, hanno scoperto che il 60% dei lavoratori oggi è impiegato in occupazioni che non esistevano nel 1940, con una loro stima sulla creazione di nuove occupazioni guidata dalla tecnologia che rappresenta oltre l’85% della crescita dell’occupazione negli ultimi 80 anni.

L’uso della GenAI in base alle funzioni aziendali
Sebbene l’impatto a livello macroeconomico dell’IA sulla produttività rimanga incerto, diverse ricerche di mercato, come ad es. The state of AI in early 2024 | McKinsey, mostrano che, attualmente, i guadagni di produttività derivanti dall’IA tradizionale e dalla IA generativa a livello di team sono comparabili, ma non superiori, a quelli ottenuti da altre tecnologie.
Per contestualizzare questi risultati, le organizzazioni dovrebbero comprendere e differenziare l’AI tradizionale (che eccelle nell’analisi numerica dei dati) e l’AI generativa (che attualmente viene utilizzata principalmente per l’analisi dei dati scritti e i modelli linguistici di grandi dimensioni).
La maggior parte degli intervistati dichiara che le proprie organizzazioni, e loro stessi come individui, utilizzano la GenAI. Il 65% degli intervistati afferma inoltre che le proprie organizzazioni utilizzano regolarmente l’AI generativa in almeno una funzione aziendale, in aumento rispetto a un terzo dell’anno scorso.
In media, le organizzazioni utilizzano l’AI generativa per due funzioni, più spesso nell’area marketing e vendite e nello sviluppo di prodotti e servizi, dove l’adozione della GenAI potrebbe generare il massimo valore, nonché nell’area IT.
Il maggiore aumento rispetto al 2023 si riscontra per le funzioni marketing e vendite, dove l’adozione riportata è più che raddoppiata. Tuttavia, tra le funzioni, solo due casi d’uso, sia in marketing che in vendite, vengono segnalati dal 15% o più degli intervistati.

L’impatto della GenAI in base alle funzioni
Anche i guadagni di produttività variano notevolmente tra le funzioni. Sempre i team di marketing e di sales segnalano i maggiori guadagni di produttività derivanti dall’implementazione dell’intelligenza artificiale. L’uso dell’intelligenza artificiale per analizzare grandi set di dati dei clienti e individuare caratteristiche di acquisto distinte a livello di segmento, o l’uso di IA generativa per creare rapidamente contenuti di marketing digitale altamente mirati e personalizzati, ha migliorato significativamente la produttività di quelle aree.

In confronto, funzioni come i team legali e le risorse umane riportano minori guadagni di produttività dall’implementazione tradizionale dell’intelligenza artificiale. Sebbene entrambe le funzioni abbiano molte opportunità per l’implementazione dell’intelligenza artificiale, sono rimaste indietro nell’adozione dell’intelligenza artificiale rispetto ad altri settori.
Parte del motivo è che l’uso dell’intelligenza artificiale in aree come la revisione legale dei contratti o il processo di selezione dei candidati delle risorse umane può esporre l’organizzazione a significativi rischi legali e di privacy dei dati. Data l’attuale affidabilità della tecnologia AI, la mitigazione di questi rischi richiede che i team legali e delle risorse umane investano in un significativo monitoraggio, governance e rielaborazione dei rischi, limitando efficacemente i risparmi di tempo e i guadagni di produttività.
L’area Finance si trova in una posizione intermedia per gli incrementi di produttività funzionali guidati dall’IA generativa, segnalando ampi margini di miglioramento. In questo ambito, una ricerca della Federal Reserve Bank di St. Louis ha evidenziato che tra i lavoratori che hanno utilizzato l’AI generativa nella settimana precedente, il 20,5% ha affermato che l’AI ha fatto risparmiare quattro ore o più, il 20,1% tre ore, il 26,4% due ore e il 33,0% un’ora o meno.
Gli utenti più assidui hanno anche segnalato un maggiore risparmio di tempo: tra i lavoratori che hanno utilizzato l’AI generativa ogni giorno nella settimana precedente, il 33,5% ha affermato di aver risparmiato quattro ore o più, rispetto all’11,5% di coloro che l’hanno utilizzata solo un giorno in quella settimana.

Sebbene diverse ricerche abbiano documentato un notevole risparmio di tempo e un significativo potenziale aumento di produttività, rimane incerto come questi miglioramenti si traducano in produttività aggregata misurabile. Se i lavoratori sono in grado di completare le stesse attività in meno tempo con l’utilizzo della AI, potrebbero considerare il tempo risparmiato come possibilità di svago sul lavoro, il che aumenterebbe il benessere, ma non la produttività.
Riprogettare i flussi di lavoro
Il valore dell’AI deriva essenzialmente dalla riorganizzazione del modo in cui le aziende operano e la riprogettazione dei flussi di lavoro, con un effetto maggiore sulla capacità di un’organizzazione di vedere l’impatto sull’EBITDA derivante dall’uso dell’AI generativa.
Le organizzazioni stanno iniziando a rimodellare i propri flussi di lavoro con l’implementazione dell’AI generativa: il 21% degli intervistati che hanno segnalato, nella ricerca di mercato di McKinsey, l’utilizzazione della GenAI nelle proprie organizzazioni afferma che le proprie organizzazioni hanno riprogettato radicalmente almeno uno, se non diversi, flussi di lavoro.
Quasi tutti gli studi concludono che la semplice implementazione dell’intelligenza artificiale non garantisce guadagni di produttività e che le riduzioni dell’organico dovute all’IA sono meno comuni del previsto.
AI e occupazione
Ritornando ad una visione più macroeconomica, uno studio del Fondo monetario Internazionale presentato da Kristalina Georgieva, direttrice del Fondo monetario internazionale (FMI) a Davos nel 2024, ha analizzato l’esposizione e la complementarità del lavoro rispetto all’AI e gli effetti sull’occupazione. Secondo questo studio, gli effetti della AI sulla occupazione si possono valutare misurando due parametri chiave:
- l’esposizione del lavoro umano alla AI che riduce la domanda di lavoro;
- la complementarità del lavoro umano rispetto all’AI che aumenta la domanda di lavoro.
- Ciò comporta che una elevata esposizione ed elevata complementarità possono comportare esiti positivi relativi all’introduzione dell’AI nei luoghi di lavoro, specie in termini di aumento della produttività.
- Invece, una elevata esposizione e bassa complementarità possono comportare elevati rischi di sostituzione e perdita di posti di lavoro.
- In contrapposizione, una bassa esposizione, specie in tutte quelle professioni dove (almeno per ora) il ruolo dell’AI è marginale, comporta un potenziale di sostituzione poco significativo.
Le conclusioni dello studio affermano che il 40% circa dei posti di lavoro a livello mondiale presentano un grado elevato di esposizione, percentuale che sale al 60% nei Paesi più avanzati. Tuttavia, quest’ultima percentuale si divide praticamente a metà tra quanti sono caratterizzati anche da complementarità elevata (il 27% complessivo) e quanti invece sono a più elevato rischio di sostituzione in quanto presentano bassa complementarità (il 33%).
AI e ROI
Secondo Jim Covello, Head of Global Equity Research at Goldman Sachs, la preoccupazione principale delle aziende, più che la perdita potenziale di posti di lavoro, è che il costo sostanziale per sviluppare ed eseguire le tecnologie di intelligenza artificiale permetta alle applicazioni di intelligenza artificiale di risolvere problemi estremamente complessi e importanti per le imprese, per ottenere un adeguato ritorno sull’investimento (ROI).
Secondo Covello, l’idea che la tecnologia in genere inizi costosa prima di diventare più economica è una ipotesi revisionista. Già agli albori Internet era una soluzione tecnologica a basso costo che consentiva all’e-commerce di sostituire le più costose soluzioni tradizionali. Amazon poteva vendere libri a un costo inferiore rispetto a Barnes & Noble perché non doveva mantenere costose sedi fisiche.
AI e processori
Sempre secondo Covello, il mondo della tecnologia è troppo ottimista nel presumere che i costi dell’AI diminuiranno sostanzialmente nel tempo. La legge di Moore sui chip, che ha guidato la storia dell’innovazione tecnologica dal 1965, si è rivelata vera solo perché i concorrenti di Intel, come Advanced Micro Devices, hanno costretto Intel stessa e altri a ridurre i costi e innovare nel tempo per rimanere competitivi.
Oggi, Nvidia è l’unica azienda attualmente in grado di produrre le GPU che alimentano l’intelligenza artificiale. Alcuni analisti credono che emergeranno concorrenti di Nvidia all’interno dell’industria dei semiconduttori o degli hyperscaler, Google, Amazon e Microsoft, il che è possibile. Ma questo è un grande salto rispetto a dove siamo oggi, dato che le aziende di chip hanno cercato e fallito nel cercare di detronizzare Nvidia dalla sua posizione dominante di produzione di GPU negli ultimi dieci anni. La tecnologia può essere così difficile da replicare che nessun concorrente è in grado di farlo, consentendo alle aziende di mantenere il loro monopolio e il loro potere nel determinare i prezzi.
Covello afferma che il punto di partenza per i costi per l’AI è così alto che, anche se i costi diminuiranno, dovrebbero farlo in modo drastico per rendere accessibile l’automazione delle attività con l’intelligenza artificiale. Gli analisti sottolineano l’enorme calo dei costi dei server verso la fine degli anni ’90, ma il numero di server Sun Microsystems da 64.000 dollari, necessari per alimentare la transizione tecnologica di Internet alla fine degli anni ’90, impallidisce in confronto al numero dei costosi chip necessari per alimentare la transizione all’intelligenza artificiale oggi, anche senza includere la sostituzione della rete elettrica e altri costi necessari per supportare questa transizione.
Ma anche se l’intelligenza artificiale potesse potenzialmente generare benefici significativi per le economie e rendimenti per le aziende, la carenza di input chiave, vale a dire chip ed energia, potrebbe impedire alla tecnologia di mantenere questa promessa? Gli analisti di semiconduttori di GS US Toshiya Hari, Anmol Makkar e David Balaban sostengono che i chip limiteranno effettivamente la crescita dell’AI nei prossimi anni, con una domanda di chip che supererà l’offerta a causa della carenza della tecnologia di memoria ad alta larghezza di banda e del packaging Chip-on-Wafer-on Substrate (CoWoS), due componenti critici dei chip.
AI ed energia elettrica
Ma la domanda più importante è: la produzione di alimentazione elettrica e i relativi costi saranno sostenibili in relazione alla velocità di adozione dell’IA generativa, che appare senza precedenti nella storia dell’informatica? Gli analisti delle utilities statunitensi ed europee di GS, rispettivamente Carly Davenport e Alberto Gandolfi, si aspettano che la proliferazione della tecnologia AI e dei data center necessari per alimentarla determinerà un aumento della domanda di energia che non si vedeva da una generazione: lo stratega delle materie prime di GS Hongcen Wei identifica le prime prove in Virginia, che rappresenta un focolaio per la crescita dei data center statunitensi.
Brian Janous, co-fondatore di Cloverleaf Infrastructure ed ex vicepresidente di Microsoft, ritiene che le utilities statunitensi, che non hanno registrato una crescita del consumo di elettricità in quasi due decenni e stanno lottando con una rete elettrica statunitense già obsoleta, non siano preparate per questo imminente aumento della domanda. Lui e Davenport concordano sul fatto che gli investimenti sostanziali necessari nelle infrastrutture energetiche non avverranno rapidamente o facilmente, data la natura altamente regolamentata del settore dei servizi pubblici e i vincoli della catena di approvvigionamento, con Janous che avverte che probabilmente ci aspetta una dolorosa crisi energetica che potrebbe limitare la crescita dell’IA.
Sulla base di queste considerazioni, Jim Covello è preoccupato sia per il costo della tecnologia AI e si dimostra scettico sul suo potenziale di trasformazione finale. Attualmente, l’intelligenza artificiale si è dimostrata la più promettente nel rendere più efficienti diversi processi aziendali esistenti, anche se le stime di questi miglioramenti dell’efficienza sono recentemente diminuite e il costo dell’utilizzazione della tecnologia per risolvere le attività è molto più alto rispetto ai metodi esistenti. Ad esempio, Goldman Sachs ha scoperto che l’intelligenza artificiale può aggiornare i dati storici nei loro modelli aziendali più rapidamente rispetto ad attività manuali, ma a un costo sei volte superiore.
I costi nascosti di un progetto AI enterprise
In un precedente articolo avevamo presentato i costi standard di implementazione per una PMI di una soluzione di private AI rispetto ad una soluzione fornita da un hyperscaler, principalmente legati alla infrastruttura e ai costi software.
Esistono però dei costi nascosti che devono essere presi in considerazione, come i costi di gestione e governance dei dati, in particolare la raccolta, la pulizia e la normalizzazione dei dati: spesso il 60–80% del tempo di progetto AI è speso qui.
Anche il Data labeling (se necessario) ha un costo di annotazione manuale o assistita di dataset per il supervised learning. Inoltre, gli adeguamenti, i controlli e gli audit specifici per dati sensibili o personali in ambito sicurezza, privacy e compliance (GDPR, DORA, ISO 27001, ecc.) possono ricoprire un costo rilevante.
Poi ci sono i costi di storage, dei log di inferenza e per la retention di grandi volumi di dati storici, considerando ciò che è stato riportato in un articolo precedente sui costi nascosti per il trasferimento dei dati da una soluzione hyperscaler (vedi i costi di egress data transfer nell’articolo precedente ) e i costi di anonymization dei dati (ad es. con strumenti come Privacera).
Per quanto riguarda i costi infrastrutturali nascosti, i costi del cloud (AWS, Azure, GCP) possono sembrare flessibili, ma soluzioni cloud-based (es. AWS SageMaker) possono limitare la portabilità, aumentando i costi a lungo termine, e l’uso prolungato di GPU/TPU per training e inferencing può generare costi imprevisti, mentre le soluzioni on-premise richiedono investimenti iniziali in hardware (es. server NVIDIA DGX), licenze di software open source enterprise-ready (es. Ollama, ChromaDB, LangChain in modalità privata), networking ad alta disponibilità e bassa latenza per gestire grandi volumi di richieste AI, oltre a backup e disaster recovery di modelli e dati associati.
È lapalissiano che un’infrastruttura sovradimensionata porti a costi fissi non sfruttati e una sottodimensionata richieda migrazioni costose in fase di scaling e l’integrazione con sistemi Legacy, ovvero l’adattamento di API, ETL e pipeline dati, possa richiedere uno sviluppo custom (€50k-€200k per progetti enterprise) significativo.
I costi per la formazione possono essere una voce di spesa consistente, in particolare l’upskilling del personale IT e dei business user, la formazione sui framework (TensorFlow, PyTorch) e MLOps può richiedere corsi certificati (€5k-€10k per risorsa) ed in genere richiede un tempo di apprendimento che può variare da 3 a 6 mesi per diventare produttivi, con possibile impatto sul lavoro ordinario.
Ma il vero costo nascosto è relativo alla gestione del cambiamento per integrare l’AI nei processi esistenti, che comprende non solo l’attività di analisi tecnica dei processi attuali e del loro eventuale adattamento all’AI, che può essere molto complessa e time consuming, ma anche aspetti di coaching su principi di AI ethics e di AI risk management alle persone coinvolte.
L’assunzione di specialisti o di consulenti esterni per la realizzazione del progetto comporta la spesa di €70k-€120k/anno in UE per lo stipendio di un Data Scientist o AI Engineer e di €1k-€2k/giorno per la consulenza esterna per il tuning avanzato.
Il costo di mantenimento e tuning comprende il retraining periodico dei modelli (drift dei dati). Ogni ciclo di training richiede risorse computazionali (es. 100 ore su GPU V100 = €500+ su cloud). Il debugging e la gestione dei BIAS o comportamenti imprevisti richiedono l’utilizzazione di strumenti come MLflow/Weights & Biases che aggiungono costi di licenza, come il monitoring delle performance dei modelli in produzione (MLOps abbiamo visto può richiedere corsi di certificazione).
L’ Hyperparameter Tuning inoltre richiede tecniche come il Grid Search o la Bayesian Optimization che moltiplicano i costi (es. 1000 trial = €10k+) e i modelli complessi (LLM, Transformer) necessitano di settimane, se non mesi di tuning.
I modelli non ottimizzati in genere consumano più risorse in produzione (es. inferencing lento che comporta costi di cloud maggiori) e il rework per migliorare le performance che può richiedere un refactoring completo.
Esistono inoltre costi operativi nascosti post-implementazione per il drift dei dati e il model decay che richiedono un retraining periodico con dei costi ricorrenti e piattaforme di monitoring dedicato (es. Prometheus, Grafana), che aggiungono complessità, oltre al patch management, le attività di Audit per il GDPR e l’AI Act europeo, che comportano la preparazione di documentazione tecnica e legale aggiuntiva.
Uno dei principali rischi nella implementazione di un progetto AI enterprise è un non corretto bilanciamento del Time-to-Market per il deploy della soluzione con la sua ottimizzazione, che comporta dei ritardi nel deployment a causa di tuning infiniti con una perdita di vantaggio competitivo e la lievitazione dei costi.
Possibili raccomandazioni per mitigare i costi nascosti sono quelli di definire un budget per il “Non Pianificato” tramite l’allocazione di un 20-30% in più rispetto al budget iniziale, di realizzare dei Proof of Concept (PoC) scalabili in modo da validare l’AI su piccola scala prima di investire nell’infrastruttura estesa e di utilizzare il monitoring finanziario tramite tool come CloudHealth o Kubecost per tracciare i costi infrastrutturali in tempo reale, con un piano di monitoraggio costi/benefici continuativo, non solo a progetto concluso, ma anche a modello attivo.
In sintesi, i costi nascosti nell’AI non sono marginali, ma strategici: un’analisi TCO (Total Cost of Ownership) approfondita è essenziale per evitare sorprese e garantire il successo del progetto.