L’automazione diffusa delle attività legate al crimine informatico segna una svolta epocale nel panorama della cybersicurezza.
La quinta edizione del Security Barcamp, l’evento annuale organizzato da Trend Micro dedicato all’analisi delle minacce e dei trend di mercato della security, ha confermato come l’intelligenza artificiale non rappresenti più un semplice moltiplicatore delle capacità offensive, ma il motore stesso di una trasformazione strutturale, che rende il cybercrime sempre più organizzato, scalabile e industrializzato.
Un cambiamento dirompente, che spinge anche i vendor di sicurezza a ripensare identità, strategie e approcci. Un cambio di passo che trova una chiara espressione nella nuova direzione intrapresa da Trend Micro.
«Dal 12 gennaio la nostra divisione dedicata alle soluzioni di sicurezza per le aziende si chiama TrendAI e ha un nuovo logo», ha annunciato Michelangelo Uberti, Head of Marketing di Trend Micro Italia, dal palco milanese dell’evento, che ha visto la partecipazione di figure di primo piano della cyber sicurezza italiana.
Non un semplice rebranding, precisano i vertici dell’azienda, ma un nuovo posizionamento strategico che, come spiega il manager, segna il «passaggio fondamentale dall’era dei microchip a quella dell’artificial intelligence, componente chiave di un nuovo concetto di sicurezza informatica. Combinando innovazione e un approccio centrato sul cliente, TrendAI capitalizza gli oltre 35 anni di esperienza maturata da Trend Micro nei diversi ambiti della cybersecurity ma con un approccio più fresco e pionieristico. Da anni, ripetiamo un concetto chiave, ovvero che la sicurezza non può e non deve frenare l’innovazione. Se gestita correttamente, anzi, dovrebbe favorirla. E oggi questo è possibile. La chiave è in quella che noi chiamiamo AI fearlessy, un payoff che non è un invito a correre rischi inutili, ma rappresenta la volontà di comprendere a fondo i pericoli per gestirli in modo consapevole e innovare senza costrizioni». ovvero che la sicurezza non può e non deve frenare l’innovazione. Se gestita correttamente, anzi, dovrebbe favorirla. E oggi questo è possibile. La chiave è in quella che noi chiamiamo AI fearlessy, un payoff che non è un invito a correre rischi inutili, ma rappresenta la volontà di comprendere a fondo i pericoli per gestirli in modo consapevole e innovare senza costrizioni».

Indice degli argomenti
Cyber sicurezza nel 2026: le 6 tendenze chiave
L’automazione spinta degli attacchi, alimentata da agenti di intelligenza artificiale sempre più autonomi, segna un punto di non ritorno per la cybersicurezza.
Le minacce diventano più rapide, adattive e difficili da attribuire, mentre il confine tra attività umana e operazioni automatizzate si dissolve progressivamente. «Il 2026 sarà ricordato come l’anno in cui il crimine informatico ha smesso di essere un settore basato sui servizi ed è diventato completamente automatizzato – ha sottolineato Salvatore Marcis, Country Manager di TrendAI Italia –. Siamo in una nuova era in cui gli agenti di intelligenza artificiale sono in grado di identificare, sfruttare e monetizzare vulnerabilità e punti deboli senza ormai alcun intervento umano». E questo significa che le organizzazioni si troveranno ad affrontare minacce continue, adattive e orchestrate su larga scala, in cui la velocità di reazione diventa un fattore critico quanto la capacità di prevenzione.

Il dato più evidente dell’accelerazione tecnologica degli attacchi emerge dalle statistiche dell’ACN, l’Agenzia per la Cybersicurezza Nazionale. Nel secondo semestre 2025 sono stati registrati 1.253 eventi cyber, con un incremento del 30% rispetto allo stesso periodo dell’anno precedente.
A cambiare, però, è anche la “faccia” degli attacchi: «La magnitudo di quelli gravi cresce, ma la quantità di attacchi di qualità inferiore diminuisce, perché le aziende hanno adottato sistemi di difesa più sofisticati ed evoluti, a loro volta basati sull’AI», ha osservato Luca Bechelli, Membro del Comitato Direttivo del Clusit (Associazione Italiana per la Sicurezza Informatica).

Dal palco, Marco Fanuli, Technical Director di TrendAI Italia ha illustrato quelle che secondo un report Trend Micro rilasciato proprio in occasione dell’evento, sono le 6 tendenze che avranno l’impatto più rilevante sulla cyber sicurezza nel corso dell’anno. Il manager ha esordito precisando che «l’intelligenza artificiale non introduce necessariamente nuove categorie di minacce, ma amplifica drasticamente pericolosità e portata di quelle esistenti».

Phishing evoluto e compromissione delle identità
Le previsioni contenute nello studio indicano che l’intelligenza artificiale agentica diventerà sempre più autonoma, eseguendo operazioni complesse e interagendo con i sistemi del mondo reale. Agenti compromessi potrebbero, dunque, trasformarsi sempre più spesso in potenziali fonti di attacco: «Le truffe basate sull’AI raggiungeranno nuovi livelli di sofisticazione attraverso deepfake, social engineering automatizzato e altre tecniche che minano alle fondamenta la fiducia degli utenti», ha aggiunto il manager.
Luca Montanari, Vice Capo Divisione Stato della minaccia, gestione delle crisi ed esercitazioni dell’ACN (Agenzia per la Cybersicurezza Nazionale), conferma che i modelli linguistici hanno abbattuto drasticamente le barriere tecniche alla creazione di campagne sofisticate.

«Abbiamo visto una crescita significativa del phishing e delle compromissioni di caselle e-mail, in virtù del fatto che creare messaggi accurati oggi è estremamente facile se si utilizzano i modelli linguistici». E lo sarà ancora di più in futuro, dato che l’AI sta diventando un «elemento di workflow in mano all’attaccante – ha osservato Andrea Angeletta, Chief Innovation and Security Officer di Aria (Azienda Regionale per l’Innovazione e gli Acquisti) di Regione Lombardia – che, grazie all’intelligenza artificiale, è in grado di chiedere la password direttamente a chi l’ha creata anziché doverla decifrare. A breve gli attaccanti saranno in grado di istruire gli algoritmi a scansionare la nostra vita e le nostre abitudini online, per scrivere e-mail sempre più accurate e verosimili creando una vera e propria narrativa, uno storytelling altamente coinvolgente per l’utente sotto attacco». Il confine tra operatori umani e “macchine” diventa, così, sempre più sfumato e labile.

#1 I rischi del coding assistito dall’AI
Pratiche sempre più diffuse come il vibe coding, ovvero lo generazione assistita dall’AI di codice software, se da un lato consente di accelerare i cicli di sviluppo, dall’altro aumenta sensibilmente i rischi di codifica non sicura nelle organizzazioni prive di adeguati controlli, introducendo fragilità molto difficili da identificare.
Fanuli ha rivelato un dato allarmante: «Dai nostri studi, emerge che circa il 45% del codice generato presenta vulnerabilità. È come costruire una casa con materiali di cui non si conosce la provenienza, che potrebbero anche causare pericolose debolezze strutturali». A questo si aggiungono le pericolosissime allucinazioni dei modelli linguistici, che creano ulteriori opportunità di infiltrazione. Il codice generato può presentare, infatti, carenze come l’assenza di validazione degli input, l’uso di librerie obsolete o, addirittura, inesistenti. In assenza di adeguati processi di revisione, queste criticità rischiano di non essere individuate e di arrivare in produzione facilitando, così, il lavoro dei malintenzionati. Gli attaccanti possono, infatti, sfruttare queste “librerie fantasma” per inserire codice malevolo nelle pipeline di sviluppo.
#2 Come cambiano le APT
Le minacce avanzate e persistenti (APT, Advanced Persistent Threat), nelle previsioni degli esperti di Trend Micro sembrano destinate a evolvere attraverso nuovi modelli di collaborazione transnazionale che consentiranno la condivisione di accessi, infrastrutture e strumenti di attacco. Questo renderà sempre più difficile identificarne l’origine e faciliterà l’esecuzione di operazioni malevole su scala globale. Le minacce interne tenderanno a convergere con quelle della supply chain, soprattutto nell’ambito di scenari di attacco state-sponsored.
L’uso dell’AI consente agli attaccanti di aggirare più facilmente le difese tradizionali, mentre pipeline compromesse e repository open source diventano vettori chiave per la propagazione degli attacchi. Lo studio prevede che gli attaccanti utilizzeranno frequentemente fornitori e partner commerciali come vettori di accesso, incorporando backdoor in componenti apparentemente legittimi o sfruttando privilegi di accesso già esistenti. Bharat Mistry, Field Chief Technology Officer di Trend Micro, parla di vere e proprie alleanze operative: «Gli attacchi non sono più strutturati come singole campagne, ma come insiemi coordinati di attività in cui gruppi diversi condividono infrastrutture, strumenti e intelligence».
Particolarmente significativo è, poi, il fenomeno del “technology transfer”, il riuso delle tecniche più sofisticate dalle operazioni sponsorizzate dagli stati verso il cybercrime comune, come ha sottolineato anche Bechelli del Clusit.
#3 Il cloud (ancora) nel mirino
Gli ambienti cloud restano anche quest’anno bersagli privilegiati, con attacchi mirati a workload critici e infrastrutture ibride. Le campagne di phishing cloud-native, che combinano e-mail, voce e AI, diventano inoltre sempre più sofisticate.
L’adozione diffusa di infrastrutture ibride e multicloud introduce nuovi punti ciechi, mentre le risorse GPU sono sempre più sfruttate per attività malevole. Errori di configurazione, privilegi eccessivi, API esposte e container non sicuri continueranno a rappresentare, anche nel 2026, i principali vettori di attacco.
#4 Ransomware automatizzato e “a servizio”
Il ransomware sta evolvendo verso modelli basati sull’AI capaci di condurre in autonomia attività di exploit ed estorsione, arrivando persino a condurre negoziazioni attraverso bot automatizzati.
Si diffondono, anche quest’anno, modelli di Ransomware-as-a-Service che rendono gli attacchi complessi accessibili anche a soggetti poco esperti. «Gli attaccanti sono, quindi, in grado di passare dalla semplice cifratura dei dati a un uso strategico delle informazioni, identificando, sempre con l’aiuto dell’intelligenza artificiale, gli asset più critici da colpire nel lungo termine», ha chiarito Fanuli.
Supply chain, componenti open source e workflow basati sull’AI diventano canali d’ingresso privilegiati, che consentono ai malware da riscatto di «insinuarsi indisturbati nei processi aziendali e rimanere latenti anche per molto tempo, in attesa dell’occasione più ghiotta per portare a casa il risultato migliore», ha messo in guardia Mistry.
#5 Il social engineering potenziato dall’IA
Per le imprese, i principali punti di debolezza continueranno a essere sistemi legacy, software obsoleti e pratiche diffuse di shadow IT, che offrono agli attaccanti vie di accesso difficili da intercettare con le difese attuali.
L’intelligenza artificiale automatizza l’hijacking e rende phishing e social engineering sempre più efficaci – riducendo la capacità delle organizzazioni di riconoscere le truffe. Gli agenti AI e le frodi generative mettono sempre più in crisi i sistemi IAM (Identity and Access Management) di tipo tradizionale, esponendo le organizzazioni a furti di identità e frodi su larga scala.
La sottrazione di credenziali valide, ottenute attraverso un’ingegneria sociale potenziata dall’IA, rappresenta già oggi il principale vettore di accesso iniziale, dopo aver surclassato lo sfruttamento diretto delle vulnerabilità tecniche, che rimangono comunque cruciali per amplificare la portata degli attacchi.
#6 Vulnerabilità zero-day
L’intelligenza artificiale accelera la scoperta e lo sfruttamento delle vulnerabilità zero-day, ampliando velocità e scala degli attacchi. Nuovi rischi emergono dagli stessi ambienti AI, tra prompt injection, backdoor nei modelli addestrati e falle nei framework di inferenza.
Supply chain, librerie open source e repository di modelli restano obiettivi prioritari per ottenere il massimo impatto. Allo stesso tempo, dispositivi IoT e OT non aggiornati (e aggiornabili), appliance di edge computing e ambienti AI di produzione scarsamente protetti costituiscono pericolosi punti ciechi sfruttabili per stabilire foothold iniziali, da cui partire per muoversi indisturbati all’interno delle reti aziendali e compiere exploit successivi.

In uno scenario a tinte fosche come quello dipinto, Matteo Macina, Head of Cyber Security di TIM, nel suo intervento ha posto l’accento su quello che in molti considerano l’aspetto più rilevante da gestire: «Nel 2026 la priorità per noi esperti di cyber sicurezza sarà rafforzare la governance e i meccanismi di controllo dei sistemi basati su intelligenza artificiale. Il rischio principale non è un’AI intenzionalmente malevola, ma un’IA legittima che opera in modo autonomo senza essere pienamente compresa».



















