Sarà l’intelligenza artificiale ad aiutare i CISO a potenziare la sicurezza aziendale

L’apprendimento automatico, con o senza una funzione di supervisione, identifica una serie di dati per creare dei modelli che aiutano le aziende a potenziare i sistemi predittivi di analisi aiutando i manager a prendere decisioni più consapevoli (e intelligenti). Le nuove frontiere del Big Data Management

Pubblicato il 21 Ott 2015

intelligenza-artificiale-151016013352

Il campo dell’Intelligenza Artificiale è molto vasto ma l’apprendimento automatico (noto in letteratura come machine learning) è una delle branche fondamentali, occupandosi della realizzazione di sistemi e algoritmi che si basano sull’osservazione dei dati per elaborare nuove conoscenze.

L’apprendimento automatico, con o senza funzioni di supervisione, identifica una serie di dati per creare dei modelli che aiutano le aziende a potenziare i sistemi predittivi di analisi, supportando così i manager a prendere decisioni più consapevoli (e intelligenti).

Perché se ne parla in un contesto di sicurezza? Perché tutte le macchine dei data center, che costituiscono il cuore pulsante del business, così come tutte le informazioni in essi contenute, stanno diventando sempre più intelligenti. Ecco perché chiedersi come sfruttare al meglio l’Intelligenza Artificiale ha sempre più senso.

L’intelligenza artificiale usa i Big Data nel migliore dei modi

Il punto di partenza è che la smartificazione del mondo chiamata Internet of Things sta entrando in vario modo anche nei data center. Le macchine stanno diventando sempre più smart, così come più smart stanno diventando le informazioni in esse contenute. Come possono trarre vantaggio i CISO e dunque le aziende dall’uso di soluzioni di apprendimento automatico basate sull’uso ottimizzato dei Big Data?

Di fatto il machine learning è una componente chiave di un’organizzazione, in quanto perno tecnologico di un Big Data Management applicato a livello di intelligenza operativa. Gli algoritmi usati nel campo dell’intelligenza artificiale sono estremamente affascinanti, ma la scienza del loro sviluppo ogni giorno diventa sempre più complessa. Dal momento che non tutti abbiamo tempo e competenze per diventare anche data scientist, come professionisti IT dobbiamo comunque imparare in che modo le nostre macchine stiano imparando a gestire i dati con sempre più autonomia.

Come nasce un algoritmo?

Stiamo progressivamente assistendo a un’evoluzione delle macchine, focalizzate su obiettivi pratici come, ad esempio, cercare modelli da utilzzare per fare previsioni rispetto ai dati disponibili. Spesso, questi modelli predittivi sono utilizzati nei processi operativi per ottimizzare un processo decisionale in corso, ma possono anche fornire indicazioni e informazioni importanti a supporto dei processi decisionali più strategici.

La premessa di base nell’ambito dell’apprendimento automatico è la creazione di un algoritmo capace di prevedere un valore di uscita all’interno di alcuni limiti probabilistici una volta inseriti dei dati di input specifici. Le tecniche di machine learning oggi sono tutte di tipo induttivo: il criterio di estrazione è di indurre correlazioni di tipo probabilistico, non certamente conclusioni deduttive e dunque definitive. Il processo di costruzione di questi algoritmi si chiama modellazione predittiva. Una volta imparato come si genera il modello rispetto ai dati a disposizione, è possibile analizzare una serie di dati originali oppure applicare il modello per analizzare ulteriori dati utili a prevedere un evento importante. In linea di massima, la definizione di un modello può essere un certo tipo di classificazione, un risultato probabilistico, una relazione nascosta o un attributo o una stima di un certo valore. Tipicamente, le tecniche di apprendimento automatico prevedono un valore che fa parte di una categoria, ad esempio un’etichetta, un colore, un criterio di qualità. L’interrogazione analitica può focalizzarsi su una relazione categorica come, ad esempio, se un determinato soggetto appartenga o meno a un gruppo di clienti che dovremmo cercare di mantenere, oppure se un soggetto comprerà qualcosa o risponderà positivamente a un’offerta. In altri casi il risultato previsionale può essere di tipo numerico come, ad esempio, una stima quantitativa o valoriale rispetto a una scala continua. Il tipo di output determina il miglior metodo di apprendimento e implica l’uso di determinati sistemi di misurazione che vengono usati per valutare la qualità della modellazione.

Chi controlla i metodi di apprendimento automatico?

I metodi di apprendimento automatico possono includere o non includere una funzione di supervisione. La differenza non è quanto sono liberi di operare gli algoritmi quanto, piuttosto, se sono in grado di autoaddestrarsi in base ai dati disponibili nel corso dei processi di analisi. In sintesi, sono tanto più intelligenti quanto riescono ad aggiungere ulteriori set di dati per fornire un nuovo livello di supervisione oppure per scoprire eventuali modelli naturali all’interno di un dato insieme di dati.

L’uso più frequente della modellazione predittiva in azienda sfrutta metodi di supervisione di determinati gruppi di dati con l’obiettivo di prevedere se una determinata istanza – una e-mail, persona, società, o una transazione – appartenga o meno a una categoria che abbia una correlazione di un qualsiasi tipo di interesse: ad esempio nel caso della sicurezza può essere la correlazione con uno spam.

L’intelligenza artificiale che include la funzione di supervisione fornisce ulteriori nuove intuizioni, utili soprattutto all’inizio, quando capita di non sapere esattamente quello che si sta cercando. Un modello di apprendimento non supervisionato può produrre cluster e grafici gerarchici che mostrano le relazioni che intercorrono tra certi dati, scoprire campi di dati che possono essere dipendenti o indipendenti, identificare regole che descrivono, riassumono o generalizzano i dati. A loro volta, questi risultati induttivi possono essere utilizzati per aiutare a costruire migliori modelli predittivi.

Gli esperti sottolineano come oggi ci troviamo solo all’inizio di una nuova scienza dei dati. La costruzione di modelli di apprendimento legati alle macchine e, in generale, la conoscenza neurale automatica fanno parte di un esercizio iterativo che richiede una profonda pulizia dei dati e tanta sperimentazione. Ci sono alcuni strumenti di modellazione automatizzati emergenti che promettono di ridurre una parte del lavoro degli scienziati dei dati: gli specialisti ritengono che questi saranno gli strumenti destinati ad avere più successo perché molto interessanti e comuni a diversi settori. Per capire quali davvero faranno la differenza, bisognerà sperimentare in prima persona e fare tutte le valutazioni, caso per caso.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati