L’intelligenza artificiale ha smesso di essere una promessa tecnologica per diventare una realtà operativa consolidata nelle infrastrutture aziendali globali. Durante il panel «Dall’adozione alla fiducia: governare l’AI su larga scala», tenutosi presso gli spazi di Superstudio Più in occasione dell’evento Dedapulse – Shape Your Future. Stay Human., esperti del settore hanno analizzato la complessa relazione tra investimenti e benefici tangibili.
Enza Iannopollo, VP e Principal Analyst di Forrester, e Roberto Loro, Chief Technology Officer di Dedagroup, hanno delineato una mappa strategica per le imprese che intendono superare la fase della sperimentazione e affrontare la sfida del AI ROI.
I numeri presentati da Forrester Research descrivono un’adozione massiccia, ma non priva di ostacoli strutturali:
- Il 78% delle aziende dispone oggi di almeno un’implementazione di intelligenza artificiale generativa o predittiva in produzione.
- Circa il 67% degli information worker utilizza quotidianamente almeno uno dei cinque principali strumenti di IA generativa o soluzioni private equivalenti.
- Le IT operations rappresentano lo use case dominante, adottate dal 53% delle organizzazioni per ottimizzare i processi tecnici.
Indice degli argomenti
Il miraggio del ritorno immediato e la realtà del AI ROI
Uno dei temi centrali del confronto è stata la discrepanza tra le aspettative del management e i tempi tecnici necessari per ottenere un ritorno sull’investimento significativo. Secondo lo studio The State of AI di Forrester, il 47% dei CEO e dei CTO ritiene che un investimento in IA debba produrre un AI ROI positivo entro un solo anno per essere considerato di successo. Enza Iannopollo ha definito questa prospettiva «abbastanza irrealistica», sottolineando che i risultati reali richiedono interventi profondi sulla governance, sulla qualità dei dati e sulla cultura aziendale.
Ad oggi, il valore dell’AI viene percepito quasi esclusivamente in termini di efficienza interna, ma il collegamento con le metriche finanziarie tradizionali rimane debole. I dati mostrano infatti che:
- Solo il 15% delle aziende riesce ad associare il valore dell’AI a una variazione dell’EBITDA.
- Solo il 30% dei leader è in grado di stabilire un nesso diretto tra l’uso della tecnologia e le variazioni del conto economico.
Roberto Loro ha evidenziato come l’errore di fondo risieda nell’approccio metodologico: «Diciamo che c’è stata una grande pressione mediatica anche su questi benefici immediati, e qui c’è un equivoco di fondo perché noi stiamo usando l’AI per accelerare il passato, mentre pretendiamo che produca un futuro».
Secondo il CTO di Dedagroup, limitarsi ad automatizzare processi esistenti garantisce solo piccoli incrementi di velocità, mentre il vero AI ROI si ottiene ripensando completamente il paradigma lavorativo. L’intelligenza artificiale, nelle parole di Loro, «non è un nuovo strumento che portiamo in azienda, ma è un cambio del sistema operativo dell’azienda, delle istituzioni e della società».
Il concetto di Minimum Viable Sovereignty
La mancanza di una struttura di controllo documentata rappresenta uno dei maggiori rischi per la sostenibilità economica dei progetti. Iannopollo ha rilevato un dato critico: un’azienda su quattro non possiede alcuna policy documentata sull’uso dell’IA, e questa percentuale rimane preoccupante anche in settori sensibili come lo sviluppo software, dove un’azienda su tre opera senza linee guida formali. Senza una governance solida, il ritorno di lungo periodo svanisce a causa dei rischi di sicurezza e legali.
Roberto Loro ha confermato che la governance è un «valore non negoziabile». Per rispondere a questa necessità, Dedagroup ha implementato modelli che integrano qualità del codice, sicurezza e trasparenza in ogni fase dello sviluppo. Emerge qui il concetto di Minimum Viable Sovereignty (MVS), un approccio modulare alla sovranità digitale che supera la semplice conformità normativa.
La sovranità digitale è definita dal Parlamento Europeo come l’abilità di creare capacità e resilienza riducendo la dipendenza strategica da singoli fornitori o governi terzi. Per le aziende, questo significa gestire il rischio che una parte del proprio ecosistema IT diventi improvvisamente indisponibile. L’approccio Minimum Viable Sovereignty permette di definire un mix accettabile di infrastrutture basato sul profilo di rischio specifico, evitando posizioni ideologiche. Come spiegato da Roberto Loro: «la sovranità digitale deve essere un concetto modulare basato sul rischio, non “sì o no in Europa”».
Esempi concreti di questa visione includono l’utilizzo di infrastrutture fisicamente protette, come il data center realizzato all’interno di una miniera attiva a 100 metri di profondità, progettato per garantire la sicurezza fisica dei dati in un mondo dove la disponibilità della rete non è più scontata.
La sicurezza degli agenti e il modello del sistema immunitario
Il panorama tecnologico del 2026 vede la crescita esponenziale degli agenti AI autonomi. Circa il 75% delle aziende globali ha già implementato o sta espandendo l’uso di questi agenti, che si distinguono per essere dinamici, scalabili e dotati di comportamenti emergenti spesso imprevedibili. Questa evoluzione impone un cambio radicale nelle strategie di cybersecurity, tradizionalmente costruite attorno al perimetro umano.
Per proteggere le organizzazioni, Forrester ha introdotto un framework basato su tre principi fondamentali:
- Least Agency: un controllo rigoroso sulla capacità decisionale degli agenti, limitando i permessi relativi ai dati, agli strumenti terzi e all’arco temporale delle decisioni.
- Continuous Risk Management: il passaggio da valutazioni di rischio saltuarie a un sistema di assicurazione continua (continuous assurance) sull’operato degli agenti.
- Sicurezza dell’intenzionalità: la capacità di monitorare se l’agente sta recependo correttamente l’intento originale della persona o se lo sta trasfigurando a causa della mancanza di contesto organizzativo.
Loro ha paragonato questa nuova necessità di difesa a un sistema immunitario aziendale: «la sicurezza a cui stiamo pensando è una sicurezza paragonabile al sistema immunitario, in cui tu non sai che cosa ti si presenterà, ma hai una struttura che fa un monitoraggio continuo del corpo ed è in grado di intercettare gli intenti malevoli».
Ricostruire la fiducia per sbloccare il mercato
Il successo finale di ogni investimento in tecnologia si misura sulla fiducia degli utenti, e su questo fronte il mercato italiano mostra segni di forte scetticismo. I dati presentati da Iannopollo rivelano che l’80% dei consumatori italiani considera l’AI una minaccia per la società e l’86% non si fida delle aziende che utilizzano l’AI nelle interazioni con i clienti. Inoltre, solo l’8% dichiara di fidarsi delle informazioni generate da sistemi sintetici.
La sfida per le aziende non è dunque solo tecnologica o finanziaria, ma culturale e relazionale. La fiducia dei dipendenti e dei consumatori è il fine ultimo che può essere raggiunto solo attraverso una filiera trasparente e governata. L’intelligenza artificiale non deve essere vista come un applicativo tradizionale, ma, citando Roberto Loro, come «un soggetto terzo con cui impari a lavorare e continui a imparare». Solo superando lo scoglio iniziale della sperimentazione e adottando una visione olistica e responsabile sarà possibile trasformare l’adozione dell’IA in un reale vantaggio competitivo misurabile.
La trasparenza lungo tutta la filiera — dalla gestione dei dati alla creazione degli algoritmi — resta l’unico percorso percorribile per colmare il divario di fiducia. Come sottolineato in chiusura del panel, senza la capacità di governare il percorso dei dati nella loro evoluzione, difficilmente le istituzioni e i consumatori accetteranno l’integrazione definitiva dell’intelligenza artificiale nella vita quotidiana.
FAQ: Intelligenza Artificiale
Che cos’è l’intelligenza artificiale?
L’intelligenza artificiale è la disciplina che studia la progettazione, lo sviluppo e la realizzazione di sistemi hardware e software dotati di capacità caratteristiche dell’uomo, come ragionamento, apprendimento, pianificazione e adattamento. Si tratta di un ramo della computer science che studia lo sviluppo di sistemi in grado di emulare le capacità cognitive umane, permettendo alle macchine di apprendere dall’esperienza, adattarsi a nuovi input e svolgere compiti che tradizionalmente richiedono l’intelligenza umana. L’AI non ha una definizione univoca e condivisa, poiché comprende un ampio spettro di discipline, dalla neurologia all’informatica, dalla neurobiologia alla matematica.
Quali sono le principali tecniche di apprendimento nell’intelligenza artificiale?
Le principali tecniche di apprendimento nell’intelligenza artificiale si suddividono in tre approcci fondamentali: l’apprendimento supervisionato, l’apprendimento non supervisionato e l’apprendimento per rinforzo. Nell’apprendimento supervisionato, l’algoritmo viene addestrato su un dataset etichettato per prevedere output corretti. L’apprendimento non supervisionato lavora su dati non etichettati per scoprire pattern o strutture intrinseche. L’apprendimento per rinforzo permette a un agente di imparare a prendere decisioni interagendo con un ambiente e ricevendo feedback sotto forma di ricompense o penalità. A questi si aggiunge il deep learning, una sottocategoria del machine learning che utilizza reti neurali artificiali con molti strati per modellare ed estrarre caratteristiche complesse dai dati.
Come è nata e si è evoluta l’intelligenza artificiale nel corso della storia?
L’intelligenza artificiale ha radici che risalgono al XVII secolo, quando furono costruite le prime macchine in grado di effettuare calcoli automatici da Blaise Pascal e Gottfried Wilhelm von Leibniz. Tuttavia, è nel 1943 che la gestazione dell’AI si avvicina al termine con il lavoro del neurofisiologo Warren Sturgis McCulloch e del matematico Walter Harry Pitts, che teorizzarono come semplici neuroni potessero essere combinati per calcolare operazioni logiche elementari. La locuzione “intelligenza artificiale” venne utilizzata per la prima volta nel 1955 dai matematici e informatici John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, in preparazione della conferenza di Dartmouth del 1956, considerata la vera “sala parto” dell’intelligenza artificiale. Dopo un periodo di grandi aspettative (1950-1965), l’AI attraversò una fase di difficoltà negli anni ’60, per poi rinascere negli anni ’80 grazie agli studi di Jay McClelland e David Rumelhart sul connessionismo e le reti neurali. Oggi, l’evoluzione delle nanotecnologie e lo sviluppo di algoritmi sempre più sofisticati hanno portato a una nuova generazione di AI capace di apprendimento autonomo e analisi complesse.
Qual è la differenza tra intelligenza artificiale debole e intelligenza artificiale forte?
La differenza tra intelligenza artificiale debole (weak AI) e forte (strong AI) rappresenta una distinzione fondamentale nel campo dell’AI. L’intelligenza artificiale debole agisce e pensa simulando di essere intelligente, ma non lo è realmente. Essa risponde a problemi sulla base di regole conosciute, confrontando casi simili ed elaborando soluzioni razionali senza una vera comprensione. Si occupa essenzialmente di problem solving, simulando il comportamento umano senza comprendere totalmente i processi cognitivi. L’intelligenza artificiale forte, invece, possiede capacità cognitive non distinguibili da quelle umane. Include i “sistemi esperti” che riproducono prestazioni e conoscenze di persone esperte in un determinato ambito, utilizzando un motore inferenziale che, come la mente umana, passa da una proposizione assunta come vera a una seconda proposizione con logiche deduttive o induttive. La caratteristica distintiva di questi sistemi è l’analisi del linguaggio per comprenderne il significato, elemento essenziale per una vera intelligenza.
Quali sono le applicazioni pratiche dell’intelligenza artificiale nel mondo aziendale?
L’intelligenza artificiale trova numerose applicazioni pratiche nel mondo aziendale, trasformando processi e strategie. Nel settore finanziario, l’AI viene utilizzata per personalizzare tassi di interesse, rilevare frodi e migliorare i servizi finanziari attraverso l’analisi dei dati sulle abitudini di rimborso e altri comportamenti dei clienti. Nel marketing e nelle vendite, le tecnologie cognitive aiutano a ottenere una comprensione a 360 gradi dei clienti, prevedendo le loro esigenze e migliorando la loro esperienza, portando a un migliore ingaggio e strategie più efficaci. Nell’industria manifatturiera, l’AI viene implementata per la manutenzione predittiva, consentendo di prevedere guasti e anomalie prima che si verifichino, riducendo i tempi di inattività e migliorando l’efficienza operativa. Altre applicazioni includono l’automazione di processi, l’ottimizzazione della supply chain, il supporto decisionale basato sui dati e il miglioramento della sicurezza informatica.
Come funziona il machine learning e quale relazione ha con l’intelligenza artificiale?
Il machine learning è un sottogruppo dell’intelligenza artificiale che conferisce alle macchine la capacità di ricevere dati e modificare gli algoritmi man mano che acquisiscono più informazioni su ciò che stanno elaborando. Si tratta di sistemi di apprendimento automatico che permettono alle macchine di adattarsi e migliorarsi senza necessità di riprogrammazione da parte dell’uomo. Il machine learning automatizza la costruzione di modelli analitici, utilizzando reti neurali, modelli statistici e ricerche operative per trovare informazioni nascoste nei dati e rispondere a nuovi input esterni. Può essere implementato attraverso diversi approcci, come l’apprendimento supervisionato, non supervisionato e per rinforzo. Un esempio classico di machine learning è un sistema di visione artificiale capace di riconoscere oggetti ripresi da una videocamera: l’algoritmo distingue tra animali, persone e cose, memorizzando nuove situazioni che arricchiscono la sua conoscenza. Il machine learning rappresenta il metodo che “allena” l’AI, consentendole di sviluppare capacità sempre più sofisticate di analisi e decisione.
Quali sono le tecnologie hardware che supportano lo sviluppo dell’intelligenza artificiale?
Lo sviluppo dell’intelligenza artificiale è supportato da diverse tecnologie hardware avanzate. Le GPU (Graphic Processing Unit), originariamente create per elaborare informazioni grafiche nei videogiochi, sono diventate fondamentali per l’AI grazie alla loro capacità di eseguire calcoli in parallelo, a differenza delle CPU che lavorano in modo seriale. Le TPU (Tensor Processing Unit), sviluppate da Google, sono circuiti specificamente progettati per operazioni di machine learning ad alto carico di lavoro, in particolare per ridurre il tempo dedicato alla fase inferenziale. Le ReRAM (memorie resistive ad accesso casuale) possono immagazzinare fino a 1 terabyte di dati in chip delle dimensioni di un francobollo, sono non volatili e consumano pochissima energia, rendendole ideali per costruire reti neurali. I computer quantistici rappresentano un’altra frontiera, operando secondo la logica quantistica che consente calcoli esponenzialmente più potenti rispetto ai computer tradizionali. Infine, i chip neuromorfici simulano il funzionamento del cervello umano, utilizzando una logica di funzionamento analogica che si attiva in maniera differente a seconda del gradiente di segnale scambiato tra le unità.
Quali sono i principali rischi e sfide etiche legati all’intelligenza artificiale?
L’intelligenza artificiale presenta numerosi rischi e sfide etiche che devono essere attentamente considerati. Tra questi, la sicurezza informatica è particolarmente critica: l’AI può essere utilizzata per creare attacchi più sofisticati, come il phishing personalizzato o la manipolazione di sistemi di sicurezza, e le stesse tecnologie AI possono essere vulnerabili ad attacchi che compromettono la loro integrità. Un altro rischio significativo è rappresentato dalle allucinazioni, ovvero la generazione di risposte false o imprecise presentate come fatti plausibili, che possono avere conseguenze gravi in settori come la sanità o la finanza. Vi sono poi preoccupazioni riguardo alla privacy dei dati, alla possibilità di bias e discriminazione nei sistemi AI, e all’impatto sull’occupazione. Questioni etiche emergono anche nel contesto delle auto autonome, come evidenziato dall’esperimento “The Moral Machine” che ha esplorato le scelte morali che un’auto a guida autonoma dovrebbe compiere in situazioni di emergenza, rivelando differenze culturali significative nelle preferenze etiche.
Come sta cambiando il ruolo del CIO con l’avvento dell’intelligenza artificiale?
Il ruolo del Chief Information Officer (CIO) sta subendo una profonda trasformazione con l’avvento dell’intelligenza artificiale. I CIO sono passati da gestori di sistemi IT a leader strategici che guidano l’innovazione e la trasformazione digitale all’interno delle loro organizzazioni. Sono ora responsabili di sviluppare strategie per integrare efficacemente l’AI nei processi aziendali, ottimizzando operazioni e riducendo costi attraverso l’automazione e l’analisi dei dati. I CIO devono garantire che i dati aziendali siano gestiti in modo sicuro e conforme alle normative sulla privacy, mentre implementano soluzioni AI che possono aiutare a identificare e mitigare le minacce alla sicurezza informatica. Devono anche pianificare e facilitare la formazione e lo sviluppo delle competenze necessarie per preparare il personale a lavorare con le tecnologie AI. La loro responsabilità si estende alla valutazione e alla scelta delle giuste piattaforme e infrastrutture per supportare soluzioni AI, considerando aspetti come scalabilità, interoperabilità e costi. Il CIO moderno deve gestire il cambiamento organizzativo che l’introduzione dell’AI comporta, affrontando le preoccupazioni dei dipendenti e promuovendo una cultura aziendale orientata all’innovazione.
Qual è la differenza tra intelligenza artificiale e intelligenza umana?
La differenza fondamentale tra intelligenza artificiale e intelligenza umana risiede nella capacità di creare valore in un sistema aperto e infinito. Mentre l’intelligenza artificiale opera in un sistema chiuso di valori già definiti, l’intelligenza umana si confronta con l’esperienza e con l’infinita variabilità del mondo. L’AI utilizza algoritmi basati sulle probabilità che possono intercettare il rapporto causa/effetto senza realmente comprenderlo, trasformando l’informazione in conoscenza attraverso modelli matematici. Al contrario, l’intelligenza umana è in grado di utilizzare l’invenzione e la fantasia per osservare il mondo in modi nuovi e inaspettati, esplorando possibilità che le macchine, con i loro algoritmi predefiniti, non possono concepire. Il linguaggio naturale utilizzato dalle macchine è efficiente nel trattare grandi volumi di dati, ma manca della profondità semantica e della capacità di innovare che caratterizza il linguaggio umano. Mentre l’AI può facilitare e ottimizzare molti aspetti della nostra vita, è l’intelligenza umana che mantiene la chiave dell’innovazione dirompente, capace di vedere oltre l’ovvio e di creare valore in modi che sfidano le convenzioni.















