La decision intelligence rappresenta il nuovo livello della business analytics. Il framework integra e orchestra dati, modelli predittivi, logiche di simulazione e regole decisionali per sostenere scelte che hanno impatto immediato su costi, capacità, priorità operative e risultati di business. In un contesto in cui i dati cambiano in modo continuo e non lineare, limitarsi a osservare KPI o trend storici non è più sufficiente. Oggi serve una piattaforma capace di interpretare in tempo reale pattern, riconoscere scostamenti emergenti e valutare, in pochi secondi le opzioni di scelta più valide per il business.
Il tema è che la complessità operativa delle imprese cresce più velocemente della capacità dei sistemi di BI descrittiva di restituire una visione realmente decisionale. I dati aumentano in termini di volume, varietà, velocità e la variabilità diventa la norma. Le aziende non chiedono nuove dashboard, ma ambienti decisionali che sappiano trasformare segnali, anomalie e variabili di contesto in raccomandazioni operative affidabili.
Indice degli argomenti
Ma come rendere le decisioni realmente data-driven?
A offrire una lettura chiara del tema è Giuseppe Valenti, Responsabile Business Intelligence & Analytics, realtà che unisce integrazione applicativa, architetture dati scalabili e competenze AI nei processi industriali, logistici e amministrativi.
Perché senza una base informativa solida l’AI non diventa decision intelligence
Dai big data agli smart data, la trasformazione dei dati in valore per il business dipende dalla capacità di identificare quelli giusti per leggerli, interpretarli e utilizzarli a supporto dei processi decisionali aziendali. Fino a ieri, BI e Business Analytics hanno permesso di leggere il business attraverso un lavoro di precisione crescente: prima descrivere, poi interpretare, poi ottimizzare. L’arrivo dell’AI ha sparigliato le carte, introducendo motori capaci di correlare serie storiche, dati operativi e segnali deboli, producendo simulazioni iterattive e previsioni dinamiche. Da una fotografia statica, le analisi evolvono in un sistema continuo di modellazione e aggiornamento degli scenari. Ed è qui che emergono tutti i limiti dei dati gestiti dalle aziende.
«Rispetto a qualche anno fa vedo aziende molto più consapevoli del proprio patrimonio informativo – spiega Valenti –. Hanno più chiaro che cosa sanno, da dove arrivano i dati e soprattutto dove vogliono arrivare. Ma questa maturità non elimina i nodi strutturali che incontriamo ogni giorno: fonti eterogenee, sistemi diversi, informazioni duplicate e un lavoro ancora enorme sulla pulizia e sulla mappatura del dato. Il tema della single source of truth non è uno slogan: è una necessità operativa. Se la marginalità è 32 in un ufficio e 28 in un altro, significa che il modello informativo non è allineato. Nella pratica progettuale questo significa partire da un inventario puntuale delle fonti e delle codifiche, un lavoro che nelle aziende italiane richiede ancora un forte intervento consulenziale: la distribuzione delle informazioni tra sistemi dipartimentali, on premise e cloud rende complesso allineare ciò che dovrebbe essere un unico modello informativo condiviso».
Dalla BI tradizionale alla modellazione predittiva
In Italia la business intelligence ha raggiunto una buona maturità operativa: l’87% delle aziende con almeno una iniziativa di advanced analytics, il 45% degli utenti business utilizza strumenti di self-service analytics per analisi descrittive, e uno su due (56%) lo fa in completa autonomia (Fonte: “Data & Decision Intelligence: pilotare l’AI per usarla davvero!” – Osservatorio Big Data & Business Analytics del Politecnico di Milano, settembre 2025).

Ma è proprio il passaggio verso analisi predittive e simulazioni dinamiche a rendere evidenti i limiti del perimetro informativo esistente. La BI tradizionale, centrata su report, consuntivi e confronti budget/effettivo, non riesce più a sostenere la crescente richiesta di insight tempestivi, correlazioni multidimensionali e integrazione di fonti eterogenee.
«Nelle organizzazioni sta emergendo con forza la necessità di una pianificazione molto più solida, continua e verificabile – prosegue il manager –. Le aziende vogliono confrontare ogni mese il previsionale con gli effettivi, capire gli scostamenti, correggere il tiro e verificare se il modello rimane plausibile. Per farlo serve una piattaforma che tenga insieme dati effettivi, dati di budget e variabili esterne, integrandoli in un ambiente unico. Questa è la vera sfida della decision intelligence: abilitare un modello informativo coerente, così che le simulazioni diventino strumenti pratici per orientare decisioni, responsabilità e priorità operative».
Quando la complessità decisionale supera i confini della BI tradizionale
La decision intelligence non riguarda solo la capacità di leggere più velocemente i dati, ma l’abilità di affrontare domande che i modelli descrittivi non riescono a gestire. Quando un’azienda deve decidere se espandere una linea produttiva, aprire un nuovo mercato, cambiare modello commerciale o valutare la convenienza di un make or buy, i dati storici non bastano. Entrano in gioco variabili interne ed esterne, vincoli tecnici, dinamiche di costo, andamenti di mercato e segnali deboli che gli indicatori tradizionali non misurano.
«La decision intelligence diventa utile proprio in questo livello di complessità – puntualizza Valenti -: non sostituisce la valutazione del manager, ma amplia il perimetro decisionale, analizzando combinazioni che sfuggono ai modelli statistici tradizionali e integrando fonti informative che fino a ieri non erano disponibili. Quando entriamo in questa fascia di decisioni, la BI tradizionale non è più sufficiente perché alcune scelte richiedono una lettura che va oltre ciò che l’azienda possiede nei propri sistemi. Pensiamo al classico dilemma make or buy: aprire una nuova linea produttiva o acquistare e rivendere? Per rispondere servono dati di produzione, capacità, costi interni, ma anche informazioni di mercato, curve di prezzo, andamento della domanda. Sono elementi che un’azienda da sola non ha e che un modello statistico standard non riesce a combinare. L’AI permette invece di mettere insieme queste variabili, testare scenari alternativi e restituire indicazioni che aiutano a capire in quale direzione orientare la decisione».
La condizione per rendere l’AI davvero utilizzabile
Molte aziende dispongono di ottimi dati all’interno dei singoli sistemi, ma faticano a metterli in relazione: repository diversi, codifiche non allineate, definizioni che cambiano tra un reparto e l’altro. L’integrazione è un prerequisito necessario, ma non sufficiente: serve una governance che renda stabile il linguaggio dei dati, rompa i silos, le pratiche excel, i work around destrutturati, le conoscenze implicite, assicurando le regole informative man mano che il business evolve. In assenza di questa continuità, il patrimonio informativo si disgrega nel tempo e i modelli AI finiscono per lavorare su una realtà frammentata, perdendo affidabilità.
«L’AI ci permette proprio questo: analizzare in profondità la base dati, integrare fonti esterne e individuare combinazioni che rimangono nascoste alla BI descrittiva – prosegue il manager -. Ma nessun algoritmo può sostituire la valutazione umana. L’algoritmo suggerisce delle ipotesi, poi è il manager che deve valutarle, capire se sono plausibili, contestualizzarle. Siamo in una fase in cui l’intelligenza artificiale amplia il quadro decisionale, ma richiede allenamento, lavoro sul modello, responsabilità e un confronto continuo. È così che la tecnologia diventa un supporto reale alle decisioni, non un sostituto del giudizio umano».
Competenze e formazione: il fattore umano della decision intelligence
Perché una piattaforma di decision intelligence funzioni, servono persone in grado di leggere i numeri, interpretarli e metterli in discussione. Negli ultimi anni molte aziende hanno introdotto figure dedicate all’analisi dei dati nei team di controllo di gestione, finance, vendite e operation. Questo ha aumentato la domanda di strumenti più liberi e flessibili – dalle analisi self-service alle “analisi libere” – ma ha reso ancora più critico il tema della formazione: senza una comprensione condivisa di che cosa rappresenta ogni indicatore, il rischio è costruire insight sofisticati su basi ambigue.
«Rispetto a qualche anno fa i clienti sono molto più maturi dal punto di vista tecnologico: hanno data analyst interni, chiedono strumenti di business intelligence più free, vogliono poter esplorare i dati in autonomia – fa notare il manager -. Per questo nei nostri progetti facciamo molta più formazione di prima: non solo su come usare gli strumenti, ma su che cosa significa davvero il dato che stanno guardando. Se faccio un’analisi libera, devo essere sicuro di non inventarmi l’informazione: devo sapere da dove arriva, come è costruita, che cosa misura. Il primo pilastro è proprio questo: il dato certo, condiviso e riconosciuto da tutti. L’AI può aiutare ad ampliare il quadro, ma la responsabilità del numero rimane in capo alle persone. Passare da report statici a modelli predittivi e prescrittivi richiede di cambiare metodo di lavoro, non solo strumenti. E su questo fronte – culturale e organizzativo – c’è ancora molta strada da fare. Molti team sono ancora ancorati a report statici e modelli consuntivi, e il passaggio a strumenti predittivi genera timori, resistenze e quella fatica digitale che rallenta l’adozione di approcci più evoluti».
Il ruolo del partner nel costruire un modello decisionale end to end
La decision intelligence è un percorso che intreccia metodo, competenze e visione: tre aspetti che non possono essere demandati a un singolo reparto, né delegati a un progetto tecnologico isolato. Per questo il ruolo del partner diventa strategico: serve qualcuno che sappia leggere la complessità dei flussi, comprendere le dinamiche economiche e operative e costruire un’architettura dati adatta a sostenere simulazioni, previsioni e analisi iterative.
«Derga lavora esattamente in questo perimetro: unendo integrazione architetturale, competenze analitiche e conoscenza dei processi industriali, amministrativi e logistici – conclude Valenti -. Il primo nodo non è mai il software: spesso il cliente ha già la percezione del problema, ma quando entri nei flussi reali scopri che la criticità non sta dove sembra. Molti progetti partono dalla richiesta di un cruscotto o di una funzione aggiuntiva, ma quando analizziamo i dati emergono anagrafiche incoerenti, codifiche duplicate, sistemi che non parlano lo stesso linguaggio. Il tema non è aggiungere un algoritmo, ma costruire condizioni che rendano il dato affidabile e pertinente. Il nostro approccio non è quello di un fornitore applicativo, ma quello di un team che accompagna le aziende nella definizione dei modelli informativi, nella pulizia e normalizzazione delle fonti, nella costruzione di metriche condivise e nella capacità di rendere i dati leggibili e utilizzabili in modo continuo. Derga crea progetti costruiti a misura di azienda finalizzate a ricostruire i dati e ad allineare logiche di business e modelli analitici. Ed è questa continuità – consulenziale, multidisciplinare, orientata all’uso reale dei dati – che permette di costruire piattaforme di decision intelligence capaci di adattarsi al business e diventare una leva quotidiana per guidare priorità, investimenti e strategia».















