how to

Agentic AI, il nuovo fronte della sicurezza: come proteggere dati e sistemi



Indirizzo copiato

L’intelligenza artificiale agentica sposta il perimetro della sicurezza dalle reti a flussi dinamici, con i pericoli conseguenti legati a Prompt Injection e Memory Poisoning. Strategie e buone prassi che CIO e CISO possono adottare per trasformare la gestione dei rischi in vantaggio competitivo

Pubblicato il 24 apr 2026



Sicurezza dei dati
Credits: Shutterstock
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Punti chiave

  • Perimetro dinamico: Agentic AI sposta il rischio dal bordo tradizionale a decisioni automatiche; modello+dati+strumenti+identità+terze parti aumentano l’esposizione (DBIR 2025, shadow AI).
  • Protezione dell’IP e triade C-I-A: agenti che sintetizzano riducono gli attriti protettivi e amplificano leaking, memorization, Data Poisoning; OWASP segnala Prompt Injection e Sensitive Information Disclosure.
  • Mitigazioni pratiche: controlli a monte (Data Masking, tokenizzazione), validazione e tracciabilità dei dataset; governance e ruoli condivisi (CISO, CDO, CIO) per rispettare AI Act.
Riassunto generato con AI

L’Agentic AI, ovvero i sistemi di intelligenza artificiale capaci di pianificare, agire e orchestrare attività in autonomia (tramite tool, API e workflow aziendali) sta spostando il baricentro della sicurezza dati. Si passa, infatti, dal perimetro classico (endpoint, rete, applicazioni) a un perimetro “dinamico”, fatto di decisioni automatiche, catene di dipendenze e accessi indiretti ai dati.

Un bagno di realtà: il rischio non nasce solo dal “modello” in sé, ma dall’insieme modello + dati + strumenti + identità + terze parti.

Si può parlare di AI sicura?

Nel 2025 Data Breach Investigations Report di Verizon emerge un segnale operativo molto concreto: il 15% dei dipendenti accede regolarmente a piattaforme di GenAI da dispositivi aziendali e, tra questi, una quota significativa usa e-mail non aziendali (72%) o e-mail aziendali senza sistemi di autenticazione integrata (17%), aumentando la probabilità di “shadow AI” e di leak non governati verso servizi esterni.

Se l’AI diventa “agente”, e quindi si muove tra repository, ticketing, knowledge base, documenti e codice, la domanda chiave per CIO, CISO e CDO non è più “l’AI è sicura?”, ma: quali dati può raggiungere, in quali condizioni, con quali controlli e quali tracce?

L’urgenza della sicurezza dei dati nell’era dell’agentic AI

Da questa premessa discende un punto spesso sottovalutato: l’Agentic AI non introduce solo un nuovo layer applicativo, ma un “operatore digitale” che collega processi e sistemi già frammentati.

In molte aziende, il mito della piattaforma unica è tramontato e la vera partita è l’integrazione; quando un agente attraversa più applicazioni, la sicurezza dati smette di essere un tema confinabile al singolo dominio tecnico e diventa un requisito di orchestrazione.

Il DBIR 2025 fotografa un contesto in cui l’attacco parte sempre più spesso da elementi difficili da governare a posteriori.

Lo sfruttamento di vulnerabilità come vettore iniziale di accesso arriva al 20% e cresce del 34% rispetto all’anno precedente; nel dettaglio, edge device e VPN rappresentano il 22% dei target nelle azioni di exploitation e registrano una crescita quasi di otto volte rispetto al 3% dell’anno precedente.

Anche quando le organizzazioni reagiscono, la finestra di rischio resta ampia: nel report, solo circa il 54% delle remediation risulta completato e il tempo mediano indicato è di 32 giorni.

La pressione regolatoria

Alla pressione tecnologica si somma quella regolatoria. La Commissione europea ricorda che l’AI Act è entrato in vigore il 1° agosto 2024 e sarà pienamente applicabile dal 2 agosto 2026, con tappe già operative come divieti e obblighi di alfabetizzazione dal 2 febbraio 2025 e obblighi per i modelli GPAI dal 2 agosto 2025.

In altre parole, la governance dei dati per l’AI non è un progetto “a valle”: sta diventando un tema di accountability, prima ancora che di innovazione. Per inquadrare cosa cambia quando l’AI passa da assistente a orchestratore dei workflow, è utile anche l’approccio che descrive tre elementi pratici da considerare nei processi aziendali, perché è lì che si materializza il perimetro reale della sicurezza dati.

Sicurezza dei dati e proprietà intellettuale: cosa cambia con l’AI

Se l’urgenza è chiara, il passaggio successivo è capire perché la proprietà intellettuale AI oggi sia più esposta anche senza un “furto di file” in senso classico.

Un agente lavora trasformando documenti, codice, procedure e knowledge base in output riutilizzabili, spesso in forma di sintesi e decisioni operative. Questo aumenta l’efficienza, ma riduce l’attrito che prima proteggeva implicitamente la conoscenza aziendale: silos, formati eterogenei, accessi non federati.

La conseguenza è un cambio di prospettiva: la protezione dell’IP (Intellectual Property) non riguarda solo la confidenzialità “statica” di un repository, ma la possibilità che un sistema ricomponga e renda “interrogabile” ciò che prima era disperso.

In parallelo, la spinta a sperimentare rapidamente con agenti (spesso in modalità prudente e su casi d’uso mirati) può comprimere tempi e controlli: proprio lì, di solito, si annidano gli scivolamenti più comuni sulla sicurezza dati.

Triade C-I-A e impatto sulla protezione dell’IP

Il modo più concreto per leggere il rischio è tornare alla triade C-I-A (Confidentiality, Integrity, Availability) e ricalibrarla su sistemi agentici, dove l’output può innescare azioni su sistemi downstream.

PilastroCome si rompe con Agentic AIEffetto tipico sulla proprietà intellettuale
ConfidenzialitàPrompt Injection, disclosure in output, permessi eccessivi su connettori e repositoryEsposizione di specifiche, codice, piani, report interni e segreti industriali
IntegritàData Poisoning su dataset o knowledge base, supply chain compromessa, output non validatoDecisioni errate e contaminazione della conoscenza operativa che guida R&D e delivery
DisponibilitàSaturazione dei modelli e dei servizi, escalation dei costi, ransomware nella catena applicativaInterruzioni di processo, ritardi nella produzione di insight e blocchi operativi
Impatto dell’Agentic AI sulla triade della sicurezza C-I-A

Un riferimento di mercato utile per classificare queste vulnerabilità in modo standard è l’OWASP Top 10 for LLM Applications, che elenca tra i rischi chiave Prompt Injection, Training Data Poisoning, Sensitive Information Disclosure ed Excessive Agency. Il messaggio è netto: più autonomia si concede a un agente, più bisogna trattarlo come un soggetto operativo con policy, controlli e logging, non come un semplice componente software.

Differenza tra sicurezza dei dati e privacy dei dati

La lettura C-I-A aiuta anche a non confondere due piani che, con l’AI, tendono a sovrapporsi: sicurezza dati e privacy.

La prima riguarda l’accesso non autorizzato, la manipolazione e la perdita di disponibilità dei dati, incluse informazioni non personali ma strategiche come l’IP. La seconda riguarda le regole e le basi giuridiche del trattamento dei dati personali, con obblighi specifici di trasparenza, minimizzazione e tutela dei diritti.

Nel mondo agentico, i dataset sono spesso “misti”: log, ticket, e-mail, documentazione tecnica e anagrafiche possono convivere nello stesso perimetro, soprattutto quando l’obiettivo è migliorare la produttività o ridurre il carico sul supporto.

Il bagno di realtà è che un progetto può essere formalmente privacy compliant e, allo stesso tempo, rischiare leakage di IP perché l’agente correla e risintetizza informazioni oltre lo scopo previsto. Viceversa, bloccare tutto per paura della privacy può spingere gli utenti verso canali non governati, amplificando la shadow AI che il DBIR 2025 segnala con evidenze quantitative.

Rischi specifici dati sensibili nei set di addestramento AI

Chiariti i concetti di base, il punto delicato è dove finisce il dato quando alimenta modelli e agenti. Nei progetti enterprise l’addestramento, il fine-tuning o la semplice connessione a una knowledge base diventano un acceleratore di valore solo se i dati sono curati, di qualità e ben classificati. È la stessa logica che emerge quando si sottolinea che gli agenti funzionano davvero soltanto con processi ben progettati e un contesto chiaro, mentre l’hype tende a vendere scorciatoie.

I rischi tipici si concentrano su due dinamiche: il Data Leaking AI (divulgazione involontaria attraverso input e output) e il Data Poisoning (alterazione malevola di ciò che il modello “impara” o consulta).

Rischi di leaking e memorization nei modelli AI

Nel ciclo di vita dei modelli, il leaking non coincide sempre con un’esfiltrazione tradizionale. Il DBIR 2025 lo rende tangibile descrivendo l’uso di piattaforme GenAI da parte dei dipendenti e la frequenza di account non integrati con l’autenticazione aziendale: è sufficiente un copia/incolla di codice, un riassunto di un report o un estratto di contratto per spostare fuori perimetro informazioni che, di fatto, rappresentano la proprietà intellettuale.

In contesti agentici, il rischio si amplifica perché il sistema non si limita a “rispondere”: raccoglie, collega, sintetizza. Ed è qui che entrano in gioco fenomeni come la memorization, cioè la capacità del modello di riprodurre porzioni di dati già visti, e la ricostruzione indiretta, cioè l’output che aggrega conoscenza interna fino a renderla trasferibile.

OWASP classifica esplicitamente la Sensitive Information Disclosure comeuna delle vulnerabilità più critiche: un segnale utile per i team che devono tradurre il rischio in requisiti di progetto, soprattutto quando gli agenti sono collegati a repository e sistemi di ticketing.

Data Poisoning e vulnerabilità correlate

Se il leaking colpisce la confidenzialità, il Data Poisoning colpisce l’integrità e quindi l’affidabilità delle decisioni. OWASP lo include tra i principali rischi per le applicazioni LLM, insieme alle Supply Chain Vulnerability, un binomio che diventa operativo quando dataset, plugin e connettori arrivano da terze parti o da repository non sufficientemente verificati.

Il DBIR 2025 dedica un’attenzione particolare al tema delle dipendenze: il coinvolgimento di terze parti nelle violazioni raddoppia dal 15% al 30%. Lo stesso report riporta che, in incidenti con riuso di credenziali in ambienti di terze parti, il tempo mediano per rimediare a segreti trapelati e individuati in un repository GitHub è di 94 giorni. In una catena agentica, questa latenza non è un dettaglio: significa mantenere attivi per mesi i presupposti tecnici di una contaminazione o di un’escalation dei privilegi, mentre l’agente continua a operare 24/7.

Come evitare che i dati aziendali finiscano nei set di training pubblici

Arrivati ai rischi, la prevenzione va riportata su un terreno operativo. La risposta, in pratica, non è un divieto generalizzato. Funziona più spesso un approccio di governo del flusso, che parte da una domanda semplice e scomoda: quali dati possono entrare in un prompt o in una pipeline di training senza trasformarsi in un incidente? L’esperienza suggerisce che policy scritte ma non applicate spostano solo il problema. Al contrario, controlli chiari riducono la tentazione di scorciatoie e migliorano anche l’esperienza digitale delle persone, perché non costringono i team a lavorare “contro” l’IT.

In questa logica, una governance dei dati orientata all’AI si sta consolidando anche come offerta di mercato in piattaforme che uniscono Data Management, sicurezza e automazione. Un esempio è l’impostazione descritta nell’approfondimento su governance dei dati, sicurezza e automazione a servizio del business, dove il dato viene trattato come asset continuo e non come semplice storicizzazione.

Tecniche di Data Masking e tokenizzazione

Tra le misure più utilizzate per abbassare il rischio di leakage, Data Masking e tokenizzazione hanno un vantaggio: spostano la protezione “a monte”, prima che il dato arrivi a modelli, agenti o ambienti di test. Il masking oscura o sostituisce parti sensibili, per esempio rendendo non riconoscibili riferimenti a clienti, fornitori, codici prodotto o parametri tecnici che, nel loro insieme, costituiscono l’IP.

La tokenizzazione, invece, sostituisce un valore con un token che può mantenere coerenza tra record senza esporre la semantica originale, utile quando servono correlazioni ma non è necessario vedere il dato in chiaro. In entrambi i casi, l’obiettivo è mantenere utilità per l’analisi e ridurre la probabilità che un agente restituisca o ricostruisca contenuti riservati.

Validazione e auditing dei dataset per l’AI

Le tecniche sul dato non bastano senza un processo ripetibile di controllo.

La validazione dei dataset per l’AI riguarda provenienza, trasformazioni e integrità: sapere da dove arrivano i dati, come sono stati trattati e chi ha modificato cosa.

L’auditing, invece, è la disciplina che rende questa catena verificabile nel tempo, evitando che un progetto pilota, nato per un caso d’uso limitato, si trasformi in una pipeline che ingloba progressivamente contenuti non previsti.

La tracciabilità della Data Lineage è cruciale: permette di seguire il percorso dei dati usati per addestrare o alimentare i modelli AI, monitorare i pattern di utilizzo e segnalare anomalie nel consumo che potrebbero indicare una compromissione. Questo diventa fondamentale per supportare la spiegabilità e la trasparenza dei modelli.

Un bagno di realtà emerso in più contesti è che l’Agentic AI, per essere efficace, richiede competenze interne e controllo sui dati. In percorsi di evoluzione verso architetture agentiche, l’investimento sulle capability interne viene indicato come leva per ridurre incertezza e muoversi più rapidamente. Ma “muoversi rapidamente” non può significare saltare i controlli: auditing e classificazione documentale sono ciò che permette di dare permessi selettivi, includendo anche la scelta esplicita di non consentire accesso a specifiche categorie di dati.

Governare la sicurezza dei dati

Una volta impostate le barriere “a monte”, la sicurezza dati va governata come parte del modello operativo. Qui è facile sbagliare: trattarla come un capitolo del progetto AI. Nella pratica accade il contrario: senza una base di controllo, i PoC si moltiplicano e poi vengono abbandonati perché il valore non è chiaro, i costi crescono e i rischi organizzativi diventano ingestibili.

Nel racconto di chi governa l’IT in aziende manifatturiere, il cloud ha spostato i budget verso OPEX e ha accelerato l’erogazione di servizi, ma ha anche aperto un universo di servizi da conoscere, governare e integrare.

Sul fronte AI, l’incognita riguarda proprio i costi legati ai token e agli agenti che fanno chiamate iterative: variabili e non sempre prevedibili. La sicurezza dati, in questo scenario, è anche un tema di sostenibilità economica, perché attacchi come il Denial of Service o un abuso di agency possono trasformarsi in spesa incontrollata oltre che in rischio cyber.

Metriche di sicurezza e rischi da monitorare

Per evitare che la sicurezza resti “opinione”, servono misure. Alcune metriche emergono in modo naturale dalle evidenze del DBIR e dalle categorie OWASP, perché collegano rischio e osservabilità.

AreaMetrica utilePerché conta
Shadow AIPercentuale di accessi a GenAI con account non aziendali o senza autenticazione integrataRiprende il pattern del DBIR 2025 (72% e 17%) e misura l’uscita dal perimetro di controllo
VulnerabilitàTempo di remediation e copertura patch su edge/VPNDBIR: 54% remediation completate e mediana 32 giorni, con exploitation al 20%
Terze partiPercentuale di workflow agentici con connettori verificati e logging attivoTerze parti coinvolte nel 30% delle violazioni; serve visibilità sulle dipendenze
Data leakageTasso di output con indicatori di dati sensibili rilevatiTrasforma “Sensitive Information Disclosure” in controllo continuo
Metriche chiave per il monitoraggio della sicurezza in ambienti Agentic AI

A queste misure si può affiancare un indicatore di qualità operativa, coerente con una regola semplice: l’IT non dovrebbe scoprire un problema dai suoi utenti. Monitorare uptime dei servizi e gestione dei ticket, come KPI di “igiene organizzativa”, resta un modo pragmatico per capire se l’AI sta migliorando la vita delle persone o aggiungendo complessità non governata.

Il ruolo dei CISO e dei CDO

Se i KPI definiscono cosa osservare, la domanda successiva è chi possiede le decisioni. Nei modelli di governance descritti per l’AI agentica, la collaborazione tra CIO e CISO viene indicata come elemento strutturale, insieme al Risk Management e a percorsi di certificazione come ISO 42001 per i sistemi AI. La governance dell’AI funziona quando diventa una responsabilità condivisa.

L’importanza di un approccio multidisciplinare

Molte organizzazioni stanno creando comitati di governance interfunzionali che includono rappresentanti di sicurezza, data & engineering, prodotto, operation, affari legali e privacy. Questo gruppo definisce le policy, concorda le soglie di rischio e possiede le metriche di successo, garantendo chiarezza sui ruoli e un approccio unificato.

In una divisione di responsabilità efficace, il CISO guida Threat Model, controlli di accesso, test su Prompt Injection e resilienza dell’infrastruttura.

Il CDO governa tassonomia, qualità e classificazione dei dati, rendendo possibile un approccio per Data Product che superi i silos e aumenti l’affidabilità dell’AI aziendale.

La governance dati AI diventa quindi un tema di integrazione organizzativa prima ancora che tecnologica: senza un lessico comune, si finisce o in una sicurezza “che blocca”, o in un’innovazione “che scarica il rischio” su chi opera tutti i giorni.

Casi reali e lezioni apprese: quando l’esposizione ai ha compromesso dati sensibili

Portare la discussione su casi e numeri aiuta a evitare l’astrazione. Il DBIR 2025 parte da un dataset ampio, con 22.052 incidenti analizzati e 12.195 data breach confermati in 139 Paesi. Al suo interno, l’elemento umano resta presente in circa il 60% delle violazioni, ma il salto più rilevante riguarda l’ecosistema: terze parti e vulnerabilità crescono, cioè proprio le aree dove un agente può amplificare l’impatto perché “lavora” con identità e accessi distribuiti.

Il report quantifica anche la dinamica ransomware, presente nel 44% dei breach esaminati, con una crescita del 37% rispetto all’anno precedente. Il dato sul pagamento medio indicato è 115.000 dollari (in calo dai 150.000 dello scorso anno), mentre la quota di organizzazioni che non paga sale al 64%.
Sono numeri che, pur non essendo specifici dell’AI, descrivono un contesto in cui la disponibilità dei sistemi e dei dati è sotto pressione costante; in un’architettura agentica, questo si traduce in necessità di piani di continuità e segmentazione più rigorosi.

Le lezioni operative

Accanto alla fotografia globale, emergono lezioni operative da chi sta sperimentando agenti in modo mirato. In Italia, l’adozione viene descritta spesso come selettiva su casi d’uso specifici, per esempio task in amministrazione e supporto tecnico.

In un percorso di evoluzione da piattaforma di GenAI ad architettura ad agenti, la verticalizzazione e la specializzazione degli agenti vengono indicate come fattori abilitanti, insieme alla cura dei dati e alla progettazione del processo.

La stessa impostazione ricorre in scenari CRM dove gli agenti guidano utenti e distributori dentro una knowledge base e, solo se necessario, aprono un ticket per passare a un supporto umano: un modello ibrido che, oltre a migliorare produttività, riduce l’esposizione della conoscenza a canali non controllati.

Per un inquadramento europeo del contesto di minaccia, l’ENISA Threat Landscape 2025 resta un riferimento per collegare incidenti, trend e tecniche su un periodo definito.

Trasformare la sicurezza dei dati in vantaggio competitivo

Dopo aver messo in fila numeri e rischi, la domanda che resta sul tavolo è pratica: come si fa a non trasformare la sicurezza dati in un freno?

La verità è che l’Agentic AI non è una bacchetta magica e, come avvertono gli analisti, una parte dei progetti verrà cancellata se non dimostra valore e sostenibilità. Ma proprio per questo la sicurezza dati può diventare un acceleratore competitivo: separa le iniziative industrializzabili dai PoC estemporanei.

Tre effetti sono immediati.

Primo, permette di sperimentare con velocità senza scaricare il rischio su utenti e operation, riducendo la tentazione di usare strumenti fuori policy.

Secondo, migliora la qualità dell’esperienza digitale delle persone: un agente che funziona bene è quello inserito in processi chiari, con permessi minimi e output verificabili, non quello che “fa tutto” ma costringe a controlli manuali continui.

Terzo, mette l’organizzazione in una posizione migliore rispetto alle scadenze dell’AI Act, perché tracciabilità, qualità dei dataset e controllo dei rischi sono già parte del modo di lavorare.

In questo scenario, si intreccia anche il tema della sovranità tecnologica, sempre più presente nelle scelte dei CIO. Diversificare i fornitori, combinare cloud locali e globali e adottare tecnologie open source e interoperabili vengono citate come leve per aumentare resilienza. Non è solo geopolitica: è anche una scelta di governance dati AI, perché il controllo del dato e delle dipendenze determina quanto un agente può essere introdotto in processi critici senza trasformarsi in un moltiplicatore di rischio.

guest
0 Commenti
Più recenti Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati