News

In attesa di leggi sull’AI, le big tech si autoregolano. Inizia Microsoft

Accesso limitato ai sistemi AI “potenzialmente dannosi” per la società e le persone, a partire dal 30 giugno 2023. Microsoft non vuole essere complice di chi intende fare cattivo uso di classificazioni ML-based, deep-fake e riconoscimento facciale. In assenza di leggi definitive e adeguate, la big tech si autoregola, candidandosi per la stesura di standard comuni e indirizzando il mercato.

Pubblicato il 18 Lug 2022

bigtech-companies

Pur intravedendo segnali di espansione dell’azione governativa sull’AI, Microsoft prende l’iniziativa e annuncia restrizioni di accesso a strumenti potenzialmente utili per pratiche “rischiose”. Il suo obiettivo non è sostituirsi alle istituzioni: restando nella veste di big tech, vuole arrivare a garantire che i suoi sistemi di intelligenza artificiale siano responsabili by design. Ne sente l’urgenza perché il rischio, già attuale, è che si trasformino in strumenti dannosi per la società e i singoli, soprattutto se riguardano deep-fake voice, riconoscimento facciale e previsione delle emozioni, dell’età e del sesso.

Entro un anno stop a classificazioni AI a rischio discriminazioni

Consapevole della propria responsabilità nel promuovere un utilizzo corretto ed etico dell’AI, Microsoft ha compiuto una scelta piuttosto drastica. Entro un anno toglierà dalle mani degli sviluppatori strumenti addestrati a classificare il sesso, l’età e le emozioni delle persone e ad analizzarne sorriso, peli del viso, capelli e trucco. Ciò vale per coloro che vi accedono tramite API di Azure e che, dopo il 30 giugno 2023, non potranno più farlo.

Pur dovendo mantenere alcune di queste funzionalità nel proprio universo, per esempio in Seeing AI (applicazione per chi ha problemi di vista), la società spera che un accesso meno immediato scoraggi i più. Ciò che vuole evitare è che le classificazioni diventino fonte di pregiudizi e ingiustizie verso alcune categorie. Non mancano infatti esempi di discriminazioni portate avanti da sistemi AI che le avevano “imparate” dai pregressi comportamenti umani utilizzati per il loro training.

Annunciando questa presa di posizione su Azure, la scorsa settimana Microsoft ha condiviso il documento “Responsible AI Standard” con obiettivi vhiari. Linee guida più rigide, riduzione al minimo di qualsiasi danno inflitto dal suo software di apprendimento automatico ma, soprattutto, una valutazione attenta e regolare dell’impatto che le sue tecnologie AI avranno sulla società. Con questa mossa si posiziona agli occhi del mercato ma si candida anche, e non troppo timidamente, a contribuire alla stesura di standard condivisi e globali.

Tutto ciò accade mentre (e perché) oggi non esistono legislazioni definitive soddisfacenti che regolamentino l’uso delle tecnologie di machine learning. In Europa stanno arrivando: la Commissione Europea ha presentato nell’aprile 2021 una proposta di regolamento per l’AI. È un corpus di 85 articoli e nove allegati attualmente al vaglio del Parlamento e del Consiglio che dovranno poi accordarsi sul testo finale.

L’obiettivo di questo AI Act è garantire che i sistemi di AI utilizzati nell’UE siano sicuri, trasparenti, etici, imparziali e sotto il controllo umano. Ne è stata stilata una classificazione in base al rischio – inaccettabile, elevato, limitato e minimo – ma non solo. In linea con la scelta di Microsoft, anche l’Unione Europea responsabilizza i fornitori con nuove norme ad hoc. Quando hanno a che fare con sistemi AI a rischio elevato, devono sottoporsi a una serie di controlli e, una volta approvati e immessi sul mercato, devono assicurarne il monitoraggio continuo, per segnalare incidenti e anomalie.

Il riconoscimento facciale, tra privacy, business e sicurezza

Il 30 giugno 2023 è una data significativa anche per chi utilizza strumenti di generazione di audio realistico e di riconoscimento facciale. Microsoft ha scelto di restringere l’accesso a entrambi, riservandosi il diritto di valutare se le applicazioni proposte siano o meno appropriate.

Per i deep-fake, presenti anche nei prodotti e nei servizi realizzati con il software Custom Neural Voice, diventerà obbligatorio dichiarare che le voci sono false. Per il riconoscimento facciale, invece, arriveranno rigide linee guida per limitarne l’utilizzo in spazi pubblici e vietarlo perentoriamente se a scopo di sorveglianza tramite tracciamento.

Quello sulla facial recognition è uno dei punti dell’AI Act che più sta facendo discutere i legislatori europei. Alcuni sostengono la necessità di paletti più stringenti per quanto riguarda la privacy dei cittadini. Tra le applicazioni ad alto rischio, il testo della Commissione già includeva i sistemi di identificazione biometrica a distanza, vietandone l’utilizzo real-time in spazi pubblici, ma potrebbe non bastare.

Gli altri passaggi in discussione riguardano i parametri di rischio per la classificazione delle applicazioni e la governance. Temi cruciali su cui, da cittadini e utenti, fa piacere osservare ci sia massima attenzione ma che inevitabilmente appesantiscono l’iter legislativo. Le norme UE vedranno la luce, infatti, non prima di metà 2023. Per quella data le Big Tech, autoregolamentandosi “secondo coscienza”, potrebbero aver già sviluppato linee guida proprie, indicando all’utente e al mercato cosa è giusto e cosa meno nel mondo AI.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3