Attualità

AI generativa e cybersecurity tra opportunità e timori per il futuro

Quale impatto sul mondo della cybesecurity avranno ChatGPT e gli altri sistemi di intelligenza artificiale generativa? Ne abbiamo parlato con Marco Rottigni di SentinelOne.

Pubblicato il 17 Mar 2023

Immagine di PopTika presa da Shutterstock

Un algoritmo a disposizione di chiunque, in grado di generare qualsiasi tipo di contenuto, compreso codice e, qualcuno teme, malware più sofisticati di quelli con cui siamo abituati ad avere a che fare. L’AI generativa, però, può anche essere uno strumento di supporto per gli addetti alla cybersecurity.

“Una volta presa confidenza con il sistema di controllo e capite le logiche che utilizza, un algoritmo di AI generativa può essere di grande aiuto in numerose situazioni” spiega Marco Rottigni, Technical Director di SentinelOne per l’Italia. Un utilizzo dell’AI che, a oggi, in pochi hanno considerato.

La versatilità dell’AI apre orizzonti inediti

Se ChatGPT ha ottenuto l’attenzione da parte dell’opinione pubblica per la generazione di contenuti testuali e per qualche “scivolone” puntualmente segnalato dagli appassionati, in alcuni ambiti permette di ottenere informazioni estremamente preziose. Uno degli aspetti in cui l’AI generativa si è dimostrata particolarmente efficace, infatti, è quello della programmazione.

Esistono però delle “aree grigie” che si collocano tra l’ambito squisitamente tecnico e quello più generalista. “Provando a giocarci un po’, ho chiesto all’algoritmo di simulare un colloquio di lavoro come esperto di security” racconta Rottigni. “Il risultato è stata un’intervista estremamente accurata, probabilmente più ‘tosta’ di quelle a cui normalmente viene sottoposto un candidato per questo genere di ruolo”.

In un’ottica più propositiva, Rottigni spiega che le qualità dell’algoritmo possono essere sfruttate per avere indicazioni preziose anche a livello strategico. “È possibile già adesso chiedere a ChatGPT anche consigli per implementare una strategia di cybersecurity a livello aziendale – spiega il Technical Director italiano di SentinelOne – ottenendo risultati decisamente sorprendenti per la qualità dei contenuti riportati”.

Un assistente, da maneggiare con cura

In prospettiva, insomma, l’evoluzione dell’AI generativa potrebbe trasformare l’algoritmo in una sorta di “assistente” a disposizione del Chief Information Security Officer, che potrebbe avvalersene ad esempio per poter verificare l’aderenza della sua attività ai framework più diffusi. Non solo: un’eventuale “specializzazione” dell’AI, che poggi per esempio su un dataset di Threat Intelligence costantemente aggiornato, potrebbe consentire l’uso dell’algoritmo in un’ottica di assistenza alla remediation. In altre parole, l’AI potrebbe diventare il consulente che permette di definire le strategie di reazione a un attacco informatico.

“Le capacità dei nuovi algoritmi permettono di ottenere correlazioni tra quantità di dati impressionanti e questo può sicuramente rappresentare un valido aiuto” sottolinea Rottigni. “Naturalmente non si sostituisce al professionista, ma può affiancarvisi”.

Anche perché uno dei rischi segnalati dai critici nell’uso dell’AI, è rappresentato da un eccessivo affidamento alle capacità dell’algoritmo, che secondo alcuni potrebbe portare a una perdita di competenze. In altre parole, affidare i compiti più complessi a ChatGPT potrebbe portare a una sorta di involuzione nelle capacità di chi la usa in maniera intensiva.

“L’uso di questo tipo di strumenti richiede una certa attenzione” conferma Rottigni. “Prima di tutto perché la qualità delle risposte dipende dalla qualità delle domande. In secondo luogo perché bisogna sempre tenere presente i limiti dell’intelligenza artificiale, che non ha alcune caratteristiche (come intuito e creatività) che rimangono prerogative prettamente umane”.

Il rischio di un uso malevolo dell’AI

In ambito cybersecurity, l’evoluzione dell’AI ha immediatamente sollevato il tema di un potenziale utilizzo dannoso degli algoritmi. Secondo Rottigni, almeno per il momento, il problema non si pone.

“Se limitiamo l’analisi a ChatGPT, cioè all’AI che oggi è disponibile per tutti, possiamo stare tranquilli. Gli sviluppatori hanno posto dei paletti ben precisi e utilizzare l’algoritmo per scopi malevoli è impossibile”. Lo stesso esperto di SentinelOne racconta di aver provato a “forzare la mano” all’algoritmo e si è visto opporre un netto rifiuto, sia quando ha chiesto la generazione di un malware, sia quando ha provato a sfumare la richiesta chiedendo di generare un testo di phishing o dei consigli sull’uso di Mimikatz (uno strumento spesso usato per sottrarre le credenziali di accesso ai sistemi – ndr).

Naturalmente, rimane la possibilità che qualcuno sviluppi un sistema di AI generativa privo di quelle regole che i creatori di OpenAI si sono premurati di introdurre per impedirne utilizzi illeciti. Si tratta, però, di un’ipotesi che tutto sommato non rappresenta una novità e, almeno per il momento, rimane ancora a livello di Proof of Concept.”

“La diffusione di strumenti di AI open source, sotto questo profilo, potrebbe accelerare il processo” sottolinea Rottigni. “Soprattutto nel caso di gruppi di cyber criminali particolarmente strutturati o dotati di mezzi tecnologici ed economici rilevanti”.

Contributo editoriale sviluppato in collaborazione con SentinelOne

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4