Sicurezza

Cybersecurity 2026: AI e attacchi automatizzati cambiano le regole



Indirizzo copiato

L’intelligenza artificiale sta trasformando il cybercrime in un’attività sempre più industrializzata, mentre le aziende faticano a colmare il divario nelle competenze e negli strumenti di difesa. L’analisi di Aldo Di Mattia (Fortinet) sulle nuove minacce, il ruolo dell’AI nei SOC e le sfide normative. E l’AI Act potrebbe limitare l’uso dell’AI come strumento di difesa

Pubblicato il 7 gen 2026



Aldo Di Mattia, Director of Specialized Systems Engineering e Cybersecurity Advisor per Italia e Malta di Fortinet
Aldo Di Mattia, Director of Specialized Systems Engineering e Cybersecurity Advisor per Italia e Malta di Fortinet

L’intelligenza artificiale sta trasformando la cybersecurity molto velocemente. Da una parte, alimenta la “catena di montaggio” del cybercrime, trasformando gli attacchi in operazioni automatizzate sempre più sofisticate; dall’altra, è uno strumento ormai imprescindibile per le aziende che devono difendersi in contesti dove i perimetri di rischio si moltiplicano e le risorse specializzate scarseggiano. 

La questione, dunque, non è più se adottare l’AI, ma come farlo senza perdere il controllo. Il cybercrime ha già compiuto la sua “industrializzazione”, mentre le organizzazioni sono chiamate a colmare il divario, a proteggere nuovi ambiti come i Large Language Model e affrontare la carenza di competenze. 

Di questi temi abbiamo parlato con Aldo Di Mattia, Director of Specialized Systems Engineering e Cybersecurity Advisor per Italia e Malta di Fortinet, che ha offerto una lettura dello stato attuale della sicurezza informatica e delle sfide che attendono le aziende nel percorso verso il 2026. 


L’AI come moltiplicatore degli attacchi

Con l’intelligenza artificiale, gli attacchi informatici sono sempre più automatizzati. «L’AI permetterà di fare molti più attacchi perché ci sarà sempre meno la necessità di farli in prima persona» sottolinea Aldo Di Mattia.  

L’automazione si estende, ormai, a tutte le fasi dell’attacco: dal furto delle credenziali ai movimenti laterali all’interno delle reti, fino alla monetizzazione dei dati.  
«L’analisi delle informazioni sottratte consente di creare pacchetti personalizzati per settore, geografia e tipologia di industria, arrivando persino ad automatizzare i messaggi di estorsione. Oggi una sola persona può gestire molte campagne in near-real-time» aggiunge. 

Il cybercrime ha ormai assunto la struttura di impresa. «Le aziende di criminali informatici hanno capacità di go-to-market ottimizzata. E cambia l’organizzazione stessa dei gruppi», osserva Di Mattia.  

L’intelligenza artificiale generativa ha accelerato ulteriormente questo processo: «Oggi chi è meno esperto può produrre codice sofisticato in tempi rapidissimi» ricorda. Un contesto che mette in crisi i modelli di difesa tradizionali. 

L’AI nella difesa e la sfida normativa

Se l’intelligenza artificiale è diventata un moltiplicatore di efficacia per gli attaccanti, per Di Mattia è inevitabile che lo sia anche per la difesa: «I sistemi di protezione sono quasi del tutto basati su AI e machine learning. La GenAI è fondamentale nei Security Operation Center e nei Network Operation Center per automatizzare task, graduare report, produrre compliance, individuare attacchi e suggerire le azioni per bonificare le aree colpite». 

Accanto alla dimensione tecnologica, c’è però un ulteriore livello di complessità, quello normativo. «Oggi gli attaccanti utilizzano AI in tutto e per tutto, senza limiti. Dobbiamo assolutamente fare lo stesso nella cybersecurity. Ma al contempo, dobbiamo prestare attenzione alle regolamentazioni, come l’AI Act, che potrebbero impattare i sistemi di difesa» afferma. 

Secondo Di Mattia, il rischio è che un approccio troppo restrittivo finisca per ampliare il divario tra chi attacca e chi difende: «Se limitiamo l’uso dell’AI per proteggerci, gli attaccanti aumenteranno il vantaggio a loro favore». 

Il ruolo delle persone e delle piattaforme integrate

Nonostante il livello di automazione raggiunto, uno dei principali limiti della cybersecurity resta legato alle persone. «Le aziende possono permettersi pochi esperti di sicurezza, e la richiesta sul mercato è altissima. Tutto ciò che semplifica il loro lavoro diventa un vantaggio incredibile», sottolinea Di Mattia. 

In questo contesto, le piattaforme integrate assumono un ruolo importante. «Automatizzano task, policy, report e compliance, liberando tempo per gli esperti su attività non automatizzabili» afferma.  

Tornando alle competenze, in Italia il gap resta significativo. Per questo Di Mattia attraverso Fortinet, è coinvolto in iniziative che portano i temi della cybersecurity e del coding già nelle scuole, a partire dai 9-10 anni. Un percorso che deve poi trovare continuità per avere competenze specializzate. 

Tecnologie chiave per la sicurezza avanzata

Nel panorama tecnologico che si sta delineando, alcune direttrici assumono un peso strategico crescente. Tra queste, Aldo Di Mattia evidenzia in particolare la cifratura quantum-safe e i modelli zero trust, insieme all’autenticazione multifattore come standard di base della sicurezza moderna.  

«La cifratura quantum-safe è fondamentale per contrastare scenari come gli attacchi harvest now, decrypt later, in cui i dati vengono intercettati oggi per essere decifrati in futuro, quando i computer quantistici diventeranno realmente operativi», spiega Di Mattia. Una minaccia futura che incide già oggi sulle scelte architetturali e sulla protezione dei dati a lungo termine.  

I modelli come zero trust e MFA, invece, sostituiscono i sistemi basati esclusivamente sulle password. Un’evoluzione che riflette la necessità di ridurre la fiducia implicita e di verificare continuamente identità, contesto e accessi, in ambienti sempre più distribuiti e dinamici. 

Gli LLM come nuovo perimetro critico

I Large Language Model rappresentano un nuovo perimetro della sicurezza digitale. «Ogni azienda utilizza LLM pubblici o interni. Con quelli pubblici il rischio è la fuoriuscita dei dati; con quelli interni, il rischio è la manipolazione intenzionale dei dati o dei modelli», spiega Di Mattia. 

La protezione degli LLM diventa essenziale per evitare errori sistemici nei processi aziendali e preservare il valore competitivo dell’AI. Gli attacchi possono colpire sia i dati utilizzati per addestrare i modelli sia i modelli stessi, attraverso tecniche di avvelenamento che alterano gli output e, di conseguenza, le decisioni basate su di essi.  

Secondo Di Mattia, proteggere gli LLM significa adottare un approccio proattivo al controllo dei flussi di dati, degli accessi e delle integrazioni con i sistemi aziendali, mantenendo sempre un equilibrio tra innovazione e sicurezza. In questo modo, l’AI generativa può diventare un fattore abilitante, senza trasformarsi in un rischio sistemico.

guest
0 Commenti
Più recenti Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati