Non ha volto, non ha firma, eppure si insinua nei sistemi con una precisione chirurgica. È il malware potenziato da intelligenza artificiale, la nuova frontiera del cybercrime. Capace di apprendere, adattarsi e mimetizzarsi, questa minaccia sfugge alle difese tradizionali e mette in crisi le strategie di sicurezza più consolidate.
Nel mondo digitale, dove ogni secondo conta e ogni vulnerabilità può trasformarsi in un varco, l’AI non è più solo uno strumento per innovare: è diventata anche un’arma. E gli attaccanti lo sanno bene.
Indice degli argomenti
Cos’è il malware AI
Il malware AI è una forma di software malevolo che integra capacità di intelligenza artificiale e machine learning per aumentare la propria efficacia e capacità di elusione. A differenza del malware tradizionale, quello basato su AI è in grado di:
- Adattarsi autonomamente per evitare il rilevamento da parte degli strumenti di sicurezza;
- Automatizzare operazioni, accelerando l’azione degli attaccanti;
- Personalizzare gli attacchi, ad esempio nel phishing mirato;
- Individuare vulnerabilità da sfruttare;
- Imitare persone reali o software legittimi, come negli attacchi deepfake.
Queste caratteristiche rendono il malware AI una minaccia particolarmente insidiosa, capace di evolversi in tempo reale e di sfuggire ai controlli tradizionali.
Le principali tipologie di malware AI
Malware polimorfico
Il malware polimorfico modifica costantemente la propria struttura per evitare i sistemi di rilevamento basati su firme. Un esempio emblematico è BlackMamba, un proof-of-concept sviluppato da HYAS Labs che utilizza l’API di OpenAI per generare un keylogger polimorfico, capace di raccogliere credenziali e dati sensibili eludendo le tecnologie di endpoint detection and response (EDR).
Malware generato da AI
Nel 2024, HP ha individuato una campagna email in cui un payload malevolo veniva distribuito tramite un dropper generato da AI, segnando un’evoluzione significativa nell’uso dell’intelligenza artificiale per la creazione di malware. Anche il modello open source DeepSeek R1 ha dimostrato di poter generare codice rudimentale per keylogger e ransomware, seppur con necessità di debugging manuale.
Un altro caso interessante riguarda un ricercatore di Cato Networks che ha indotto ChatGPT, tramite un attacco di prompt engineering, a generare malware capace di violare il Password Manager di Google Chrome.
Worm AI
I worm AI sfruttano i modelli linguistici di grandi dimensioni (LLM) per propagarsi autonomamente. Il worm Morris II, ispirato al celebre worm del 1988, utilizza la tecnica di retrieval-augmented generation (RAG) per recuperare dati esterni e diffondersi su altri sistemi, dimostrando come anche i meccanismi di generazione automatica possano essere strumentalizzati.
Social engineering potenziato da AI
L’AI sta trasformando anche le tecniche di social engineering. Gli attaccanti la utilizzano per:
- Creare email di phishing più credibili e prive di errori;
- Raccogliere informazioni da siti web per rendere gli attacchi più tempestivi;
- Condurre attacchi mirati come spear phishing, whaling e business email compromise con maggiore rapidità;
- Imitare voci per truffe vocali (vishing).
Deepfake
La tecnologia deepfake, che genera contenuti audio, video e immagini falsi tramite AI, è sempre più utilizzata per frodi e disinformazione. Nel febbraio 2025, il gruppo ingegneristico britannico Arup è stato truffato per 25 milioni di dollari da cybercriminali che hanno utilizzato voci e immagini deepfake per impersonare il CFO e convincere un dipendente a effettuare un trasferimento bancario.
Strategie di difesa contro il malware AI
Di fronte a minacce così evolute, le difese tradizionali basate su firme risultano spesso inefficaci. Ecco alcune contromisure consigliate:
Aggiornamento continuo: rimanere informati sull’evoluzione delle minacce AI e sulle tecniche di difesa più efficaci.
Analisi comportamentale: implementare software che monitorano e segnalano attività anomale nel traffico di rete e nell’esecuzione del codice. Alcuni esempi sono ManageEngine Log360, Teramind, IBM Security UEBA.
AI contro AI: adottare strumenti di cybersecurity potenziati da AI, capaci di rilevare e rispondere alle minacce in tempo reale. Ad esempio Darktrace Enterprise Immune System, CrowdStrike Falcon, Cortex XDR by Palo Alto Networks, Vectra AI, Exabeam Fusion.
Riconoscere i deepfake: formare il personale per identificare segnali come movimenti innaturali, sincronizzazione labiale errata, riflessi incoerenti o rumori audio artificiali.
Tecnologie di rilevamento dei deepfake: utilizzare soluzioni basate su analisi spettrale, liveness detection, analisi comportamentale e protezione dei driver di dispositivi audio/video.
Best practice di sicurezza: applicare buone pratiche come l’autenticazione a più fattori (MFA), il modello zero-trust e la formazione continua sulla sicurezza.
Prevenzione del phishing: educare i dipendenti a riconoscere e gestire le truffe, anche quelle potenziate da AI.
Framework NIST: integrare il Cybersecurity Framework e l’AI Risk Management Framework del NIST per identificare e gestire i rischi legati all’intelligenza artificiale.