L’intelligenza artificiale è diventata il nuovo confine della cybersecurity. Non solo come strumento di difesa, ma anche come alleato del cybercrime. È questa la riflessione più netta che emerge dagli interventi di Alessio Pennasilico e Luca Bechelli nella presentazione del Rapporto Clusit 2025, che dedica un ampio approfondimento al legame sempre più stretto tra AI e cybersecurity.
Pennasilico, membro del Comitato Scientifico Clusit, evidenzia che il 2025 segna un punto di svolta: «Il tema non è più l’hype mediatico sull’intelligenza artificiale, ma il modo in cui viene realmente utilizzata dagli aggressori». Gli attacchi sono diventati più sofisticati, più credibili e, soprattutto, più difficili da rilevare. L’AI non è più una minaccia potenziale: è una componente operativa della criminalità informatica.
Indice degli argomenti
Dalla difesa all’offesa: come l’AI sta cambiando il gioco
Fino a pochi anni fa, l’intelligenza artificiale veniva presentata come una risorsa strategica per migliorare le capacità di difesa: sistemi di rilevamento basati su machine learning, modelli predittivi di rischio, automazione delle risposte agli incidenti. Tutto questo è ancora vero, ma oggi il panorama è radicalmente diverso.
Bechelli, membro del Comitato Scientifico Clusit, lo spiega in modo diretto: «Prima del 2022, correlare miliardi di dati raccolti nel dark web era complesso. Oggi è banale: le AI possono essere addestrate a farlo, e chi attacca può chiedere loro di fare cose anche brutte».
La disponibilità di modelli generativi e di strumenti di analisi automatica ha reso più semplice trasformare enormi quantità di dati rubati in informazioni operative. Gli aggressori non devono più analizzare manualmente le banche dati compromesse: basta addestrare un sistema in grado di riconoscere password, combinazioni di credenziali o relazioni tra individui e aziende. In questo modo, l’AI diventa una leva di efficienza per il crimine digitale.
Pennasilico aggiunge un dettaglio inquietante: la qualità delle truffe è ormai tale da rendere inutile il vecchio consiglio di controllare grammatica e grafica delle email sospette. «Oggi gli attacchi di social engineering possono includere fatture autentiche, IBAN di fornitori reali e testi perfettamente scritti. L’unico errore, spesso, è nel conto bancario dove finiscono i soldi».
L’effetto deepfake e la fine del sospetto visivo
Un altro fronte critico della convergenza tra AI e cybersecurity riguarda la manipolazione dei contenuti multimediali. L’uso di immagini, voci e video generati o alterati da reti neurali ha già superato il livello di sperimentazione. Pennasilico osserva che «oggi le tecniche di deepfake non sono più curiosità tecnologiche, ma strumenti usati in campagne di phishing, truffe aziendali e frodi di identità».

«L’AI? L’abbiamo resa così simile a noi da trasferirle anche le nostre debolezze».
Luca Bechelli, membro del Comitato Scientifico Clusit
Le falsificazioni vocali e visive vengono impiegate per impersonare dirigenti, simulare videoconferenze o creare prove digitali false. È un salto qualitativo che mina uno dei principi fondamentali della sicurezza: la fiducia percettiva. Se “vedere per credere” non è più valido, il problema non è solo tecnico ma culturale.
Bechelli conferma che «stiamo assistendo a una fase in cui l’AI si comporta esattamente come un essere umano: risponde a richieste ingannevoli e commette errori simili ai nostri. L’abbiamo resa così simile a noi da trasferirle anche le nostre debolezze».
L’intelligenza artificiale come moltiplicatore di vulnerabilità
Non è solo il lato offensivo a destare preoccupazione. Anche l’uso dell’AI nelle infrastrutture legittime può amplificare il rischio se implementato senza adeguate misure di sicurezza. Modelli predittivi non supervisionati, chatbot integrati in processi sensibili, sistemi di automazione che apprendono dai dati aziendali: ogni innovazione aumenta la superficie d’attacco.
Secondo Pennasilico, la trasformazione in corso richiede di ripensare i modelli di governance della sicurezza. L’AI deve essere considerata a tutti gli effetti una tecnologia critica, soggetta agli stessi controlli delle infrastrutture di rete e dei sistemi industriali. «Non si tratta solo di gestire i rischi esterni», sottolinea, «ma di capire che anche le nostre implementazioni di AI possono diventare un punto debole».
Il Rapporto Clusit evidenzia inoltre che molti incidenti recenti — pur non classificati direttamente come “attacchi AI” — sono favoriti da automatismi non monitorati o da sistemi di analisi comportamentale che reagiscono in modo imprevisto a input malevoli. In altre parole, l’AI non è solo una nuova arma, ma anche un nuovo bersaglio.
Cybersecurity e sostenibilità: il costo sociale degli attacchi intelligenti
Pennasilico lega il tema dell’intelligenza artificiale anche a una dimensione più ampia: quella della sostenibilità digitale. Gli attacchi moderni non colpiscono solo i dati, ma incidono sulla stabilità economica e sociale. «Ogni incidente non rappresenta solo una perdita di bit o di euro. Può compromettere la continuità di un’azienda, la sicurezza di un territorio, la fiducia dei cittadini».

«La cybersecurity è una questione ormai di sostenibilità, non solo di tecnologia».
Alessio Pennasilico, membro scientifico del Clusit
Il caso recente di un attacco a un grande gruppo manifatturiero, costretto a fermare i pagamenti ai fornitori e ai dipendenti, è un esempio emblematico. In quell’occasione, il governo è dovuto intervenire per evitare effetti a catena sull’occupazione e sulla produzione. La cybersecurity, spiega Pennasilico, è ormai «una questione di sostenibilità, non solo di tecnologia».
Nel contesto italiano, dove la digitalizzazione procede a velocità disomogenea, l’integrazione di soluzioni basate su AI senza adeguati controlli rischia di creare disuguaglianze. Le grandi imprese possono permettersi strumenti di difesa avanzati, ma le piccole e medie aziende restano spesso esposte. L’intelligenza artificiale, se mal gestita, può quindi amplificare il divario digitale e rendere il tessuto economico più vulnerabile.
Formazione e consapevolezza: la prima linea di difesa
Un aspetto ricorrente nelle parole dei relatori è la necessità di una formazione capillare. Anna Vaccarelli, presidente del Clusit, lo sintetizza chiaramente: «L’anello debole della sicurezza è sempre l’uomo». Per questo l’associazione sta portando avanti progetti di alfabetizzazione digitale rivolti a studenti, manager e cittadini senior.
Nell’era dell’intelligenza artificiale, la consapevolezza diventa il primo scudo. Sapere riconoscere un messaggio manipolato, verificare le fonti, comprendere i limiti delle tecnologie generative sono competenze ormai indispensabili. Non bastano più firewall e antivirus: serve un approccio culturale alla sicurezza.
Bechelli aggiunge un punto di vista complementare: «Le normative europee come la NIS2 e il Cyber Resilience Act stanno spingendo le aziende a sviluppare una vera governance del rischio digitale. Ma senza una cultura diffusa, ogni obbligo normativo resta un adempimento formale».
L’obiettivo, spiega, è costruire una resilienza sistemica, in cui la collaborazione tra pubblico, privato e mondo accademico permetta di anticipare le minacce. L’intelligenza artificiale non va demonizzata, ma compresa: può essere un moltiplicatore di rischio o uno strumento di difesa, a seconda di come viene progettata e usata.
Verso una nuova etica della sicurezza digitale
Il Rapporto Clusit 2025 lascia emergere un messaggio forte: l’intelligenza artificiale e la cybersecurity sono ormai inscindibili. Non è più possibile discutere di sicurezza digitale senza considerare l’impatto delle tecnologie cognitive. Ogni innovazione apre nuove possibilità, ma anche nuove responsabilità.
Pennasilico lo riassume con una considerazione semplice: «Non possiamo più pensare alla cyber security come a una disciplina separata. È parte integrante della società digitale che stiamo costruendo».
In questo nuovo equilibrio, la sfida non è solo tecnica ma etica: comprendere come mantenere la fiducia, la trasparenza e la responsabilità in un mondo in cui anche gli algoritmi possono mentire.















