Attualità

Cybersecurity 2024: la vera sfida è l’artificial intelligence

Trend Micro svela cinque previsioni sulla sicurezza IT per l’anno che verrà. Nell’occhio del ciclone ci sono cloud, blockchain e la catena di fornitura del software. Ma il vero game changer è l’intelligenza artificiale generativa, un’arma a doppio taglio per difensori e attaccanti

Pubblicato il 08 Feb 2024

Immagine di Rabbit_Photo su Shutterstock

Per la cybersecurity, il 2024 sarà un acceso campo di battaglia, con le nuove sfide all’insegna della GenAI (ovvero l’intelligenza artificiale generativa). Innovazioni come machine learning (ML), cloud e blockchain diventano un’arma a doppio taglio, nelle mani di imprese e criminali. Cosa aspettarsi per il futuro? Come da tradizione, Trend Micro lancia i pronostici, definendo i principali rischi per l’anno in corso.

L’intelligenza artificiale per usi virtuosi e malevoli

“L’intelligenza artificiale – esordisce il Country Manager italiano Alessandro Fontana – ha impatti estremamente positivi sulla vita delle persone. Ad esempio, può supportare i soggetti ipo- e non-vedenti, nell’esplorazione e nella conoscenza del mondo”.

Tuttavia, come ricorda l’amministratore delegato, esiste il rovescio della medaglia: anche i criminali possono trarre vantaggio dagli strumenti AI per affinare e automatizzare gli attacchi. “La lotta è impari – aggiunge – perché se le normative come l’AI Act limitano gli utilizzi dell’intelligenza artificiale per le aziende, il cybercrime ne fa invece un uso indiscriminato”.

Il futuro della cybersecurity in cinque punti

Prima di svelare le prossime tendenze, Rachel Jin, VP of Product Management di Trend Micro, porta l’attenzione sul 2023: un anno iniziato male, ma che a primavera mostra segni di ripresa economica, scatenando l’entusiasmo e gli investimenti delle imprese verso l’AI generativa. Mentre si discute su responsabilità e uso etico delle nuove tecnologie, nascono le prime regolamentazioni in materia e le aziende passano dalla fase sperimentale alle implementazioni.

Tenendo l’esplosione della GenAI come costante di fondo, Jin insieme ad Alessio Agnello, Technical Director di Trend Micro Italia, enuncia le cinque predizioni per il 2024. Lo scenario è stato delineato grazie all’attività di ricerca sulle minacce globali condotta dai 15 centri Trend Micro dedicati.

1. I worm cloud-native sfrutteranno le falle del cloud

La prima considerazione riguarda le lacune di sicurezza dei nuovi ambienti sulla nuvola. La crescente complessità delle infrastrutture IT aumenta il rischio di configurazioni errate, offrendo una facile porta di ingresso agli attaccanti. Da qui, sfruttando l’automazione e l’interconnessione del cloud, gli aggressori potranno facilmente colpire una pluralità di container, account e servizi.

“Le aziende – commenta Agnello – hanno progressivamente spostato informazioni e workload sulla nuvola. Le soluzioni di cloud storage come One Drive o Google Drive, sono diventate sempre più popolari. Pensiamo però che il 60% del malware distribuito nel mondo risiede proprio sui sistemi di archiviazione as-a-service. Inoltre, le aziende stanno spostando sulla nuvola anche lo sviluppo software, per sfruttare tecnologie come Kubernetes e Docker: ciò estende ulteriormente la superficie di attacco e la possibilità di distribuire malware in modo automatizzato”.

Facendo un paragone, i criminali sfruttano il cloud come un tempo le botnet, utilizzando la potenza computazionale altrui per diffondere sistematicamente applicazioni malevole. Come suggerisce Agnello, la segregazione degli ambienti è una tecnica valida per frenare la propagazione delle infezioni.

2. Inquinare i dati per colpire i modelli di machine learning

Il secondo tema riguarda l’inquinamento dei dataset che vengono utilizzati dalle aziende per il training degli algoritmi ML. “Spesso – afferma Agnello – le imprese non sviluppano applicazioni AI proprietarie e non allenano i modelli di machine learning con dati aziendali. Piuttosto si rivolgono a società terze che forniscono i dataset per l’addestramento attraverso il cloud. Sempre più spesso i criminali cercheranno di bucare le barriere di sicurezza dei provider e modificare le informazioni utilizzate per il training. Così le applicazioni basate su dataset compromessi, ad esempio i chatbot del contact center, potrebbero fornire risposte sbagliate. Addirittura si potrebbe arrivare a pilotare l’opinione pubblica: un bel rischio visto le imminenti elezioni americane”.

Insomma, come recita la profezia di Trend Micro “data will be weaponized” ovvero “i dati diventeranno armi” per colpire i modelli ML basati su cloud. Il consiglio da parte degli esperti è implementare una sicurezza proattiva e basata su un modello Zero Trust, con un monitoraggio continuo delle fonti dati attraverso strumenti come le piattaforme CSPM (Cloud Security Posture Management). Così si potranno rilevare tempestivamente eventuali compromissioni dei dataset sulla nuvola.

3. L’evoluzione del social engineering con la GenAI

La terza prediction riguarda l’utilizzo dell’intelligenza artificiale generativa per condurre attacchi mirati di social engineering, diretti contro figure chiave all’interno delle aziende ma anche verso i comuni cittadini. “Ad esempio – chiarisce Agnello – alcune banche utilizzano il riconoscimento vocale come metodo di autenticazione del cliente al telefono. Attraverso i deep fake, i criminali possono mappare e riprodurre la voce del chiamante, ingannando così il sistema. Inoltre, sfruttando i Large Language Model, è possibile creare mail di phishing in diverse lingue, senza errori e più credibili, indirizzando più accuratamente gli attacchi”.

“Insomma – dichiara Jin – la GenAI cambia le carte in tavola nel mondo della cybersecurity, ma non solo per gli attaccanti. Anche i difensori possono farne ampio ricorso. Trend Micro utilizza l’intelligenza artificiale da venti anni, coprendo qualsiasi aspetto della sicurezza, dalla protezione degli asset all’analisi delle minacce alle fasi di detection e risposta. Fa parte delle nostra cultura. L’AI generativa ci permette di fornire agli utenti le informazioni per comprendere i rischi, prendere decisioni, definire le priorità”.

4. Attacchi alla supply chain del software

Proseguendo con l’elenco delle previsioni, il quarto focus riguarda l’aumento degli attacchi alla supply chain del software. Come evidenzia Agnello, sempre più spesso le aziende spostano le proprie applicazioni sul cloud, ricorrendo a soluzioni SaaS e abbracciando i paradigmi dello sviluppo cloud-native. C’è anche un altro elemento da considerare: per accelerare la progettazione, oggi i developer fanno un uso massiccio delle librerie pubbliche. Per i criminali l’occasione è ghiotta: sfruttando le falle di sicurezza dei cloud provider, possono compromettere i software più utilizzati e ampliare il bacino delle vittime. Inoltre, manomettendo una singola libreria si vanno a impattare tutte le applicazioni che ne fanno uso.

Insomma, gli attaccanti andranno a colpire direttamente il codice alla fonte, passando attraverso componenti di terze parti (librerie, container, pipeline). Ne consegue che le aziende devono implementare strumenti di sicurezza delle applicazioni per ottenere visibilità sui loro sistemi di Continuous Integration e Continuous Delivery (CI/CD).

5. Le blockchain private nel mirino dei criminali

L’ultima predizione accende i riflettori su un fenomeno più futuribile: le blockchain private come nuovo terreno di caccia per i cyber criminali. “Il Web3 sta ridisegnando la Rete – spiega Agnello – creando strutture decentralizzate e chiuse, che a differenza di Internet non sono attrezzate per ricevere attacchi continui. Gli aggressori quindi si concentreranno attorno alle blockchain private”. Secondo Agnello, già si stanno formando i primi gruppi criminali che opereranno interamente su organizzazioni autonome decentralizzate e saranno governati da contratti intelligenti autoeseguibili ospitati su reti blockchain. Si tratta comunque di una frontiera avanguardista, con cui le aziende dovranno misurarsi per capirne rischi e vulnerabilità.

“Un’ulteriore prediction – aggiunge Agnello – secondo un parere personale, riguarda gli attuali sistemi di crittografia che saranno scardinati dai progressi dell’intelligenza artificiale”.

AI e sicurezza: la visione degli esperti

Secondo Stefano Vercesi, CISO di Pirelli, per un’impresa manifatturiera, l’AI rappresenta un’enorme opportunità per migliorare i livelli di produttività e semplificare i processi. “È fondamentale capire – afferma – come implementare una good AI all’interno dell’azienda, identificando i rischi per la cybersecurity. Abbiamo un approccio ormai strutturato per l’applicazione del machine learning ai processi produttivi. L’accelerazione portata dalla GenAI invece richiede maggiore attenzione. I dipendenti devono essere educati a un utilizzo consapevole della tecnologia: in Pirelli abbiamo regolamentato l’impiego della GenAI per evitare fughe in avanti del personale, ma senza divieti”.

Guardando il lato oscuro dell’intelligenza artificiale, invece, Vercesi nota un crescente uso della GenAI negli attacchi perpetrati a livello worldwide: sono state ricevute mail malevole tutte riconducibili a uno stesso attore, ma declinate finemente a seconda del Paese e con dettagli personali.

Mettere al sicuro l’artificial intelligence

Sul tema dell’intelligenza artificiale, il CISO di TIM Matteo Macina evidenzia invece la necessità di effettuare attività VAPT (Vulnerability Assessment and Penetration Testing) per valutare la robustezza e le vulnerabilità di un’applicazione AI, le sue capacità di difesa e come si comporta ad esempio in caso di data poisoning.

Anche Walter Riviera, AI technical lead Emea di Intel sottolinea il legame tra artificial intelligence e sicurezza. “Qualsiasi modello di AI al lavoro – asserisce – se non adeguatamente protetto, rappresenta un potenziale rischio”.

Banalmente un attaccante potrebbe carpire il funzionamento dell’algoritmo su cui si basa l’applicazione, compiendo di fatto un furto di proprietà intellettuale. Ecco perché è fondamentale adottare misure di sicurezza adeguate, come ad esempio i TEE (Trusted Execution Environment): si tratta di aree segregate e criptate all’interno del processore principale, che garantiscono la protezione del codice e dei dati al suo interno.

Riviera ricorda però che occorre un impegno collettivo per tutelarsi dai rischi. Ci sono già molte iniziative che vanno in questa direzione: ad esempio, il progetto C2PA (Coalition for Content Provenance and Authenticity), partecipato da Intel, si pone l’obiettivo di definire un open standard aperto per tracciare l’origine e l’evoluzione dei contenuti media contro violazioni e disinformazione.

A fronte di esempi virtuosi che dimostrano una certa maturità del mercato, in realtà vige ancora tanta confusione nell’ambito dell’intelligenza artificiale. Vercesi solleva infine il tema dell’AI Washing: per cavalcare l’onda, molte aziende si spacciano per esperti e consulenti di artificial intelligence, ma senza una comprovata esperienza e competenza. “Ci sono invece realtà – afferma – che invece lavorano su questi temi da anni”. Occorrerebbe quindi “fare pulizia” nel settore.

Il cloud ha bisogno di governance

La nuvola è stato un altro argomento di discussione. Vercesi lamenta le lacune del cloud in termini di security posture, con la necessità di rivedere i modelli di governance per la distribuzione delle responsabilità tra cliente e provider. Una situazione che sta migliorando soprattutto in ambito IaaS, ma più recentemente anche sul SaaS.

“Inizialmente – si aggancia Macina – il cloud ci è stato presentato come secure-by-design, ma l’IT ha presto dovuto fare i conti con le misconfiguration che spesso sono industrializzate, ovvero applicabili a diversi soggetti, come ben sanno gli attaccanti. Nelle prediction infatti si parla di worm, cioè un oggetto malevolo che ha la capacità di propagarsi automaticamente sfruttando gli errori di configurazione comuni a diversi ambienti. Ecco perché diventa necessaria la capacità di governo, verifica e controllo, soprattutto in ecosistemi eterogenei e multi cloud”.

Dotata di un Security Operation Center ormai ventennale, Tim mantiene le funzioni IT e Sicurezza separate. Compito del team di cybersecurity è guidare la controparte nel cloud journey, garantendo le adeguate misure protettive senza intralciare le esigenze di velocità e libertà dell’informatica e quindi dal business.

Formazione e collaborazione

Tra le altre considerazioni, si è parlato anche di awareness e formazione, fondamentali soprattutto per i non addetti ai lavori, alla luce di minacce sempre più numerose. Come sostiene Macina, oggi chiunque può improvvisarsi hacker e perpetrare attacchi, che, seppure poco sofisticati, contribuiscono ad aumentare la pressione sugli utenti.

Riviera concorda sulla necessità della consapevolezza e della sensibilizzazione: in un mondo digitalizzato e impregnato di intelligenza artificiale, bisogna tenere la guardia alta non solo in ambito lavorativo, ma anche nella vita privata.

Infine, come ultima nota, il manager di Intel chiude mettendo al centro l’importanza della collaborazione: l’apprendimento federato, ovvero una tecnica che permette di addestrare modelli di intelligenza artificiale in modo collaborativo senza condividere i dati sottostanti, può essere la chiave per sbloccare il potenziale dell’AI. I dati rimangono sul sistema locale, dove avviene il training; successivamente gli aggiornamenti dei modelli vengono convogliati verso un server centrale e quindi aggregati per comporre un modello globale, frutto dell’esperienza condivisa di tutti i partecipanti.

Il federated learning è auspicabile per i settori come la sanità, dove la privacy delle informazioni è fondamentale. Tuttavia, come ammonisce Riviera, per una piena realizzazione del sistema, occorre che tutti gli attori facciano un decisivo upgrade in termini di sicurezza, certificazioni, autorità garanti, autenticazione.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 5