Attualità

Clearbox AI: dati sintetici per combattere le frodi bancarie online



Indirizzo copiato

Gli episodi di crimini bancari on line sono ancora troppo pochi, mancano dati per insegnare all’AI a riconoscerli. Quindi se ne creano apposta, per mostrarle come sono e insegnarle a riconoscerli meglio.

Pubblicato il 5 giu 2024

Marta Abba'

Giornalista



4823

Lo scorso maggio la Banca d’Italia ha lanciato una campagna di sensibilizzazione per il contrasto alle truffe digitali. Si chiama “Occhio alle truffe” ed è ancora troppo presto per sapere se sarà efficace, se si riuscirà a far capire a tutti che i criminali cyber sono altrettanto se non ancora maggiormente pericolosi di un “semplice” rapinatore analogico. Ma un’iniziativa su scala nazionale e valore istituzionale è un primo segnale importante.

Qualche mese prima, l’autorità bancaria europea EBA aveva varato alcune misure contro le frodi finanziarie online, chiedendo alle istituzioni di rafforzare ulteriormente il quadro legislativo nell’ambito sui pagamenti. Non è certo qualcosa che si può improvvisare in poche settimane: “lavori in corso”, per ora, quindi. Ma è un altro segnale significativo e su scala territoriale più ampia: l’Europa tutta.

I crimini on line che colpiscono il settore bancario, con impatti diretti sui cittadini, non svettano ancora nella top ten dei report di cybersecurity, ma rappresentano un fenomeno rilevante e insidioso. Possono avere impatti pesanti sulla vita delle persone, oltre che sul loro conto in banca. Ed è meglio non attendere che mietano vittime a tappeto, che diventino un fenomeno dilagante conquistando titoli di giornale quotidianamente, per intervenire.

Pochi dati, l’AI non capisce

Una delle prime idee che il sistema bancario e il settore della security si sono fatti venire per non restare a lungo con le mani in mano, è stata quella di domandare un supporto all’intelligenza artificiale. Non certo originale ma una mossa utile, per lo meno per districarsi nella miriade di dati che transita nel settore e che devono essere setacciati con precisione massima in cerca di segnali di frodi o simili. Di anomalie che facciano “drizzare le orecchie”.

“Il problema sta proprio nella capacità dell’AI di riconoscere casi sospetti, quindi, e in come la alleniamo a farlo” spiega Shalini Kurapati, CEO della startup Clearbox AI “I dati riguardanti transazioni finanziarie non mancano, anzi, sono tantissimi. A non essere sufficienti sono quelli inerenti a casi di frode e di altre tipologie di crimine finanziario digitale. Esiste un problema di bilanciamento a causa della rarità degli eventi fraudolenti. Gli algoritmi, quindi, non arrivano a funzionare in modo efficace, forniscono molti falsi positivi o negativi, entrambi molto pericolosi”.

Far acuire lo sguardo all’AI con dati sintetici truffaldini

La sfida è quella di spiegare all’intelligenza artificiale come riconoscere meglio fenomeni che non incontra spesso mentre si allena e l’idea è quella di fargliene incontrare di “sintetici”, ovvero di creare dei database ad hoc con anomalie che richiamino avvenute frodi (o altri tipi di cybercrime da identificare) in modo che possa capire sempre meglio cosa sono, quali segnali deve riconoscere e quanti tipi ne esistono.

“Oltre che per aumentare il numero oggi scarso di dati relativi a episodi fraudolenti in ambito bancario, i dati sintetici possono aiutarci ad ampliare lo sguardo sulle varie modalità in cui possono presentarsi – spiega Kurapati – contribuendo ad aumentare la qualità delle performance di riconoscimento dell’AI. In media si possono ottenere anche incrementi del 15%, nei casi migliori anche del 20%. C’è anche un tema di robustezza dell’algoritmo su cui i dati sintetici aiutano”.

Il 15 o il 20% possono apparire percentuali basse o alte, a seconda delle aspettative, del punto di vista, dalle necessità e anche della capacità di sapersi accontentare di chi le legge. Ma va tenuto conto, anche e soprattutto in questo contesto, che dietro ai numeri ci sono persone, persone che possono subire o meno frodi potenzialmente dannose per la loro stabilità economica, e non solo.

Clearbox AI e il sogno di generare fairness

Proprio la creazione di dati sintetici per addestrare l’intelligenza artificiale, se usata da banche e istituti finanziari (ma non solo) è la mission con cui ClearBox AI si presenta sul mercato. Questa startup si distingue per il suo approccio particolarmente attento alla privacy nei processi di sviluppo degli algoritmi e propone “una soluzione facilmente integrabile, anche dalle realtà bancarie meno digitalizzate o meno grandi” spiega la CEO.

“Il nostro prodotto è composto da tre elementi, il primo si occupa della fase di pre-processamento e serve per rilevare la qualità dati di input forniti dall’utente, utilizzando anche una libreria per fare unit test” spiega Kurapati. “Poi c’è il generatore vero e proprio di dati sintetici e, infine, la parte di validazione che prende in considerazione sia il comportamento in sé dei modelli, sia la parte di privacy, nello specifico. E non c’è nessuna barriera di adoption: dipende solo dalla volontà di ogni singola banca o istituzione”.

Kurapati ha idee chiare, usa parole chiare e mostra prospettive chiare per ClearBox AI. In questi mesi con il suo team sta esplorando “nuovi” tipi di dati, partendo da database relazionali e serie temporali, e segnala una grande sfida a cui tiene particolarmente. “L’integrazione di concetti di fairness nel nostro prodotto: ci stiamo lavorando anche con un’università ed è un aspetto sempre più importante anche in questo settore. Fondamentale per il business, ma soprattutto per immaginare una società più vicina ai valori in cui, come startup e come persone, crediamo fortemente.”

Articoli correlati

Articolo 1 di 5