Tecnologie per migliorare la privacy: tipologie e casi d’uso

pittogramma Zerouno

TechTarget Tech InDepth

Tecnologie per migliorare la privacy: tipologie e casi d’uso

I dati sono fondamentali per il successo delle aziende, ma mantenere la privacy e garantire la compliance normativa è molto difficile. Alcune tecnologie innovative possono aiutare a mantenere i dati protetti

26 Apr 2022

di Marta Abbà - Fonte TechTarget

Un tema molto attuale nel mondo della tecnologia è la privacy, soprattutto perché le aziende raccolgono sempre più dati sensibili e poi, troppo spesso, subiscono devastanti violazioni. La privacy è il diritto degli individui di controllare o influenzare il modo in cui le loro informazioni possono essere raccolte, utilizzate e conservate, così come da chi e come tali informazioni possono essere divulgate.

I dati che le persone forniscono non dovrebbero essere ricondotti a loro direttamente o attraverso risultati statistici. Proprio quest’ultimo requisito rende difficile per le imprese raccogliere e analizzare i dati degli utenti per ottenere insights comportamentali, migliorare i processi decisionali e misurare le prestazioni di prodotti, studi clinici o campagne pubblicitarie. Ad aumentare la complessità, infine, c’è il fatto che spesso questi dati sono condivisi con terze parti.

Per continuare a utilizzare questi dati, essere compliance alle normative sulla privacy e la protezione dei dati, come CCPA e GDPR, ed evitare multe per non conformità, le organizzazioni si stanno rivolgendo alle tecnologie di miglioramento della privacy (PET). Le PET assicurano che le informazioni personali o sensibili rimangano private per tutto il loro ciclo di vita. All’interno di questa categoria tecnologica se ne trovano numerose e anche molto differenti tra loro. Sono tutte progettate per far rispettare le privacy e i principi di protezione dei dati, mai però intaccando la possibilità di estrarre valore dai dati forniti dall’utente. La maggior parte delle PET lo fa utilizzando crittografia e tecniche statistiche per oscurare i dati sensibili o ridurre la quantità di dati reali elaborati.

Tecnologie crittografiche di miglioramento della privacy

Privacy differenziale

La privacy differenziale aggiunge del rumore calcolato a un set di dati in modo che sia ancora possibile identificare i modelli al suo interno, pur garantendo l’anonimato degli individui. Questo permette di rilasciare grandi serie di dati per la ricerca pubblica. La privacy differenziale è utilizzata dalle aziende tech per analizzare ed estrarre insights da grandi quantità di dati utenti.

WHITEPAPER
DATI: come PROTEGGERLI e mantenerli CONFORMI alle regole? Scarica la Guida
Sicurezza dei dati
Database

Crittografia omomorfa

La crittografia omomorfa permette operazioni di calcolo su dati crittografati. I risultati di qualsiasi analisi rimangono criptati e solo il proprietario dei dati può decifrarli e visualizzarli. Questo metodo di crittografia permette alle aziende di analizzare i dati crittografati nel cloud storage o di condividere quelli sensibili con terze parti. Google ha rilasciato librerie e strumenti open source per eseguire operazioni di crittografia completamente omomorfe su un set di dati crittografati.

Secure multiparty computation (SMPC)

SMPC è un sottocampo della crittografia omomorfa che distribuisce il calcolo tra sistemi e più fonti di dati crittografati. Questa tecnica assicura che nessuna parte possa mai vedere l’intero set di dati e limita la quantità di informazioni che ogni soggetto può acquisire. OpenMined usa SMPC nella sua piattaforma peer-to-peer PyGrid per la data science privata e il federated learning.

Zero-Knowledge Proof (ZKP)

ZKP è un insieme di algoritmi crittografici che permettono di convalidare le informazioni senza rivelare i dati che le provano. Gioca un ruolo cruciale nell’autenticazione dell’identità. L’età di un individuo, per esempio, può essere autenticata con ZKP senza rivelare la sua effettiva data di nascita.

Tecnologie statistiche di miglioramento della privacy

Federated learning

L’apprendimento federato è una tecnica di machine learning che permette ai singoli dispositivi o sistemi di imparare in modo collaborativo un modello di previsione condiviso, mantenendo i dati memorizzati localmente. Un telefono cellulare, per esempio, scarica il modello corrente, lo migliora imparando dai dati sul telefono e carica nel modello centralizzato solo una sintesi delle sue modifiche. Sono da mediare con gli aggiornamenti di altri dispositivi per migliorare il modello condiviso.

Più entità possono costruire modelli di machine learning più intelligenti senza condividere i dati grazie all’apprendimento federato. Si riduce anche la quantità di dati da memorizzare su un server centralizzato o nel cloud storage. Google utilizza l’apprendimento federato in Gboard su Android per suggerire miglioramenti alla successiva iterazione del modello di suggerimento di query di Gboard.

Generative adversarial networks (GAN)

Le GAN generano nuove istanze sintetiche di dati che imitano un set di dati reali. Questo metodo fornisce ad analisti, ricercatori e sistemi di apprendimento automatico grandi quantità di dati sintetici di alta qualità. La capacità delle GAN di riconoscere modelli complessi all’interno dei dati viene utilizzata per trovare rapidamente anomalie nei test medici e nel traffico di rete.

Pseudonimizzazione/oscuramento/mascheramento dei dati

Vari metodi – tra cui la pseudonimizzazione, l’oscuramento e il mascheramento dei dati – possono essere utilizzati per sostituire od oscurare le informazioni sensibili scambiando i dati sensibili con dati fittizi, distraenti o fuorvianti. Questa è una pratica comune utilizzata dalle aziende per proteggere i dati sensibili degli utenti e rispettare le leggi sulla privacy. Alcune tecniche di anonimizzazione, come la rimozione di colonne contenenti informazioni personali identificabili (PII) o il mascheramento dei dati, possono essere suscettibili di reidentificazione.

On-device learning

Le azioni degli utenti sono analizzate sui loro dispositivi per identificare i modelli senza inviare dati personali a server remoti. L’on-device learning può essere utilizzato per rendere più intelligenti alcuni algoritmi, ad esempio la correzione automatica. Face ID di Apple utilizza questo tipo di apprendimento per raccogliere dati sui diversi modi in cui il volto di un utente può apparire. Questa scelta rende la sua metodologia di identificazione più accurata e sicura.

Synthetic Data Generation (SDG)

SDG sono dati creati artificialmente da un set di dati grezzi che hanno le stesse caratteristiche statistiche. I set di dati SDG possono essere molto più ampi del set di dati originali. Questa tecnica viene utilizzata in ambienti di test, oppure quando vengono utilizzate intelligenza artificiale e machine learning, e aiuta a ridurre la condivisione dei dati e la quantità di dati reali richiesti.

Ottenere l’accesso alle PII ma tenerle al sicuro con i PET

Garantire che i dati personali siano archiviati in modo sicuro con crittografia e forti controlli di accesso è essenziale per mantenere la privacy e la riservatezza dei dati degli utenti. Le PET sono un modo per condividere e analizzare i dati da più parti. Questo ha enormi benefici potenziali per gli utenti, le organizzazioni e la società, poiché l’accessibilità e la disponibilità di dati di alta qualità sono un presupposto importante per qualsiasi innovazione.

Il Centre for Data Ethics and Innovation del Regno Unito ha pubblicato una Guida all’adozione delle PET per aiutare le organizzazioni a considerare come possano far aumentare le opportunità di innovare con modalità data-driven.

Le PET vengono già utilizzate in diverse aree, come nella realizzazione di test di applicazioni e sistemi, in particolare nei campi dell’IoT, delle transazioni finanziarie e dei servizi sanitari. L’European Data Protection Board – che sovrintende all’applicazione del GDPR – e l’Agenzia dell’Unione Europea per la Cybersecurity hanno pubblicato una guida tecnica che sostiene l’SMPC come una valida salvaguardia della privacy, con casi d’uso nell’assistenza sanitaria e nella cybersecurity. Questo potrebbe rivoluzionare il mondo della ricerca medica, dato che il World Economic Forum ha stimato che gli ospedali producono 50 petabyte di dati all’anno, ma il 97% non viene mai utilizzato.

A

Marta Abbà - Fonte TechTarget

Articolo 1 di 5