L’evoluzione dell’intelligenza artificiale non procede più lungo la direttrice del gigantismo tecnologico, ma verso un modello distribuito e accessibile, in cui le aziende possono costruire valore sui propri dati. È il cambio di paradigma illustrato da Nico Losito, Vice President Sales di IBM Italia, nel suo intervento all’AI Operations Forum 2025 tenutosi presso gli IBM Studios di Milano. Il suo contributo ha delineato un futuro dell’AI fondato su apertura, efficienza e governance, temi che stanno ridefinendo il modo in cui le imprese integrano l’intelligenza artificiale nei propri processi decisionali e produttivi.
Indice degli argomenti
Dall’élite tecnologica alla democratizzazione dell’AI
Negli ultimi anni, il dibattito sull’intelligenza artificiale è stato dominato dall’idea che il suo sviluppo fosse appannaggio di pochi grandi attori. I modelli linguistici di dimensioni gigantesche — come ChatGPT, con parametri stimati tra 1,7 e 2 trilioni, o quelli di Meta, tra 400 milioni e 2 miliardi — sembravano confermare una direzione monopolistica. Tuttavia, secondo Losito, il 2025 segna una svolta: «la realtà sta andando verso una direzione assolutamente diversa, più vicina a una democratizzazione dell’AI».
L’esempio più emblematico è quello del modello DeepSeek, sviluppato in Cina, che ha richiesto un investimento stimato tra i cinque e i sei milioni di dollari e appena quindici giorni di training, contro i miliardi e i mesi di calcolo dei modelli tradizionali. Una dimostrazione, spiega Losito, che «il mondo dell’AI non è più materia per pochi big player, ma può essere affrontato anche su scala ridotta».
Questa tendenza apre la strada a un’intelligenza artificiale più diffusa, sostenibile e adattabile alle esigenze aziendali, in linea con l’evoluzione che altre tecnologie — dallo storage al cloud computing — hanno già vissuto in passato. La democratizzazione non riguarda soltanto l’accessibilità economica, ma anche la capacità di adattare i modelli ai contesti d’impresa, superando la logica del “one size fits all”.
L’approccio multimodello e multicloud: l’AI come ecosistema
Nel descrivere la strategia di IBM, Losito parla di un approccio multimodello, multidominio e multicloud, che si fonda sull’idea che non esiste un solo modello adatto a ogni compito. A seconda del dominio — industriale, linguistico o visivo — i modelli vengono selezionati o costruiti in base alla loro efficienza e al tipo di dati da elaborare.
La vera innovazione risiede nella flessibilità: le piattaforme devono essere in grado di accogliere modelli proprietari, open source o sviluppati dai clienti stessi. In questa visione, la collaborazione tra sistemi differenti diventa la chiave per garantire interoperabilità e sicurezza, evitando il lock-in tecnologico che ha spesso frenato l’adozione dell’AI nelle imprese europee.
Losito osserva come anche i grandi player stiano convergendo su questa logica, sviluppando modelli “fit for purpose”, di dimensioni più contenute — tra 3 e 20 miliardi di parametri — ma ad alte prestazioni e costi operativi ridotti. La sfida non è più costruire modelli enormi, ma modelli efficienti, facili da addestrare e da integrare nei processi aziendali.
Costruire valore dai propri dati
Uno dei punti centrali dell’intervento riguarda il valore dei dati proprietari. Losito sottolinea che «oggi i modelli di intelligenza artificiale utilizzano solo l’1% dei dati aziendali, mentre il restante 99% rimane inutilizzato». È su quel 99% che si gioca la partita della competitività.
Per le imprese, la creazione di modelli personalizzati basati sui propri dati rappresenta il passo decisivo per ottenere un vantaggio sostenibile nel tempo. Questi modelli possono essere sviluppati in ambienti cloud dedicati, in infrastrutture ibride o on premises, garantendo così la protezione e la sovranità dei dati.
In questa prospettiva, Losito cita la piattaforma di IBM come esempio di approccio integrato alla governance dell’AI, composta da moduli dedicati allo sviluppo, alla gestione dei dati e al controllo dei modelli. Tra questi, la sezione di Watson Governance consente di monitorare bias, tracciabilità e conformità all’AI Act europeo, una necessità che, come osserva Losito, «diventa cruciale quando si gestiscono decine di modelli in parallelo».
La governance, quindi, non è solo un requisito normativo, ma un pilastro strategico per mantenere trasparenza, affidabilità e coerenza nei processi decisionali basati sull’AI.
Dall’AI Assistant agli AI Agent: verso l’autonomia intelligente
Un’altra evoluzione che si affaccia all’orizzonte è quella degli AI Agent, sistemi in grado di gestire obiettivi complessi con autonomia operativa. Losito distingue chiaramente tra AI Assistant, che «ha un compito e lo esegue», e AI Agent, che «ha un obiettivo e lo raggiunge coordinando più processi e risorse».
Questo passaggio segna il confine tra un’AI reattiva e una AI proattiva, capace di pianificare, decidere e ottimizzare operazioni in autonomia. Secondo Losito, già entro il 2026 sarà possibile orchestrare agenti multipli in grado di interagire e cooperare all’interno delle infrastrutture aziendali, aumentando la produttività e l’automazione dei flussi di lavoro.
L’obiettivo non è sostituire l’uomo, ma liberarlo da task ripetitivi, rendendo più fluido l’utilizzo dei dati e potenziando le capacità decisionali delle organizzazioni.
Ridisegnare prima di automatizzare: la lezione del caso IBM
Nel suo intervento, Losito ha portato anche un esempio concreto di applicazione interna dell’AI. IBM ha utilizzato le proprie tecnologie per ridisegnare i processi aziendali prima di automatizzarli, ottenendo un risparmio di 4,5 miliardi di dollari in tre anni, pari al 7% dei ricavi globali.
L’obiettivo non era solo l’efficienza, ma anche la verifica sul campo dell’efficacia dei propri strumenti. L’iniziativa è stata gestita attraverso un doppio approccio top-down e bottom-up, con un comitato di leadership impegnato nel coordinamento e un programma di challenge annuale per il ridisegno dei processi.
«L’errore più comune dei nostri clienti — ha spiegato Losito — è automatizzare processi che non funzionano. Bisogna prima renderli efficienti, poi automatizzarli». Un principio che può essere applicato trasversalmente a qualsiasi organizzazione impegnata nella trasformazione digitale.
Tra le aree d’intervento più rilevanti figurano la gestione IT, la supply chain, la customer experience e l’HR. In quest’ultima, IBM ha introdotto un HR chatbot, che consente ai dipendenti di eseguire operazioni amministrative in autonomia, dalla preparazione delle lettere di aumento salariale all’aggiornamento dei dati personali. L’impatto è stato significativo: un aumento della produttività e una riduzione del carico operativo del team HR, a beneficio dell’intera organizzazione.

«L’errore più comune è automatizzare processi che non funzionano. Bisogna prima renderli efficienti, poi automatizzarli».
Nico Losito, Vice President Sales di IBM Italia
Un’AI open, smart e trusted
L’idea di democratizzazione dell’AI delineata da Nico Losito si fonda su quattro principi cardine: apertura, intelligenza, fiducia e integrazione. L’AI del futuro deve essere open, cioè capace di accogliere modelli e innovazioni provenienti dalla community globale; smart, nel senso di efficiente e mirata; trusted, perché basata su trasparenza e sicurezza; e integrata, pienamente allineata alle infrastrutture aziendali esistenti.
In questa prospettiva, la democratizzazione non è un obiettivo teorico, ma una traiettoria di sviluppo concreta che trasforma l’intelligenza artificiale da tecnologia per pochi a risorsa strategica per tutti.





















