Attualità

Zscaler: “Sicurezza per l’AI generativa con un approccio Zero Trust”

Previsioni sempre più accurate, suggerimenti sulle policy e ampio monitoraggio dei rischi. L’approccio zero trust di Zscaler evolve per mettere in sicurezza le aziende impegnate in una trasformazione in chiave AI

Pubblicato il 25 Lug 2023

Immagine di Diyajyoti su Shutterstock

Serve che qualcuno si occupi di preservare la sicurezza della proprietà intellettuale delle aziende e dei dati dei loro clienti, mentre oggi quasi tutte si affannano a trovare il modo di sfruttare appieno il potenziale dell’intelligenza artificiale generativa. Zscaler ha deciso di farlo, innescando un’evoluzione del proprio modello zero trust, partendo da una convinzione ribadita dal suo CEO e presidente Jay Chaudhry, durante lo Zenith Live 2023 di Berlino. “L’AI generativa rappresenta un punto di inflessione nella tecnologia e le organizzazioni che dispongono di grandi volumi di dati aziendali privati e rilevanti per sfruttarne il potenziale oggi, emergeranno come leader domani”.

Si parte da dati e motore AI

Consapevole del ruolo giocato dall’intelligenza artificiale in ambito sicurezza da anni, l’azienda non si limita a sfruttarla per prevedere le violazioni. L’idea è di arrivare anche a consigliare le policy per offrire rilevamento, prevenzione e risposte alle minacce di livello superiore. La sua strategia si basa su quelli che ritiene essere due suoi punti di forza: grandi quantità di dati diversificati e di alta qualità da una parte, un motore di AI adatto ad addestrare modelli sofisticati dall’altra.

Lato dati, infatti, Zscaler può contare sui 300 miliardi di transazioni giornaliere da utenti, dispositivi IoT/OT, carichi di lavoro e comunicazioni business-to-business elaborati dalla sua piattaforma di sicurezza cloud. Quanto al training di modelli, si affida a una architettura basata su proxy e il datalake che, combinata con i suoi Large Language Model (LLM), riesce a fornire una visione della postura di sicurezza completa e dati anonimizzati, utili per migliorare e velocizzare continuamente le previsioni sulle violazioni.

L’approccio zero trust si approccia all’AI generativa

Facendo leva su questa combinazione di dati e tecnologia, il modello zero trust proposto si arricchisce di nuove funzionalità di sicurezza, mettendosi al passo con le potenzialità legate all’AI generativa. L’obiettivo è quello di supportare le aziende che vogliono accelerare il proprio percorso di trasformazione AI, permettendo loro di farlo con un occhio attento e prudente, ma non frenante.

Uno dei primi strumenti forniti serve a bloccare, per esempio, alcune delle classiche azioni pericolose che compie chi inizia a usare soluzioni di AI generativa. Si va a isolare il browser remoto, quindi, proprio limitando upload, download e funzioni di taglia e incolla durante l’accesso a tali applicazioni.

C’è poi una funzionalità dedicata alla visibilità e al controllo degli accessi all’intelligenza artificiale. Sono state create, infatti, una nuova categoria di URL e un’applicazione cloud in grado di stabilire una serie di policy diverse per gruppi di utenti diversi, per permettere un monitoraggio il più preciso e capillare possibile.

Un altro elemento parte del paradigma dell’AI generativa da non trascurare è il prompting. È in tal senso che Zscaler fa evolvere la propria soluzione di Data Loss Prevention (DLP), estendendola alle query di AI generativa e ai risultati degli LLM e delle applicazioni AI disponibili pubblicamente, anche a fini di audit. Tra le novità presentate in ambito AI vi è poi anche un sistema completo di valutazione del rischio che stia al passo con il numero crescente di applicazioni di AI. Si chiama AITotal e promette di unire questo aspetto a elementi inerenti anche alla privacy.

Suggeritore di policy in arrivo

Pezzo per pezzo, l’approccio zero trust sembrerebbe aggiornabile in tempi ragionevoli a questa ondata di tecnologia che brucia i tempi. Il pericolo che l’entusiasmo spinga all’impulsività e all’imprudenza è incombente.

L’idea di Zscaler è quella di farlo evolvere velocemente e di continuare a lavorarci. Nei suoi laboratori, infatti, tiene in serbo ulteriori innovazioni, sempre mirate a minimizzare i rischi dell’AI generativa, ma non i profitti che le organizzazioni possono trarne.

ThreatLabz, il team di ricerca avanzata sulle minacce e di risposta agli incidenti di Zscaler, starebbe per esempio lavorando per offrire un approccio proattivo alla sicurezza dei dati. Punta sui motori di intelligenza artificiale facendoli apprendere continuamente dalle modifiche delle policy e dei log basati sul cloud, per arrivare a consigliare nuove policy ed eseguire accurate analisi di impatto. In tal modo si mira a migliorare il controllo della postura di sicurezza e a prevenire future violazioni. È diventato sempre più necessario bloccare anche quelle legate a formati multimediali visivi e audio ed è ciò che dovrebbe fare la soluzione DLP multimodale, grazie all’integrazione dell’intelligenza artificiale.

Questa tecnologia trova applicazione anche in ambito “formativo”, con una funzione “Navigator”, in arrivo. In questo caso si sfruttano AI e linguaggio naturale per sviluppare un’interfaccia semplificata e unificata con cui gli utenti possono accedere alla documentazione inerente al mondo Zscaler. Un modo “intelligente” anche per facilitare loro la conoscenza delle novità lanciate e in arrivo, e innescare la consapevolezza di averne bisogno.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4