News

Quando ad assumere è l’AI: arriva la prima legge contro i bias HR 

È entrata in vigore la prima normativa al mondo che regolamenta i pregiudizi dell’AI nelle assunzioni. È accaduto nel piccolo e lontano Stato di New York ma la mossa dei legislatori interroga anche l’Unione Europea. Basterà l’AI Act per proteggere gli aspiranti candidati dai tipici bias nascosti nei più comuni strumenti AI per l’hiring? 

Pubblicato il 01 Set 2023

Immagine di ImageFlow su Shutterstock

Rimbalza da un Paese all’altro senza distinzioni di PIL l’allarme su unintelligenza artificiale che stravolge il nostro modo di lavorare. Molto meno si parla di come questa tecnologia si sia infiltrata più silenziosamente nelle modalità con cui si decide se possiamo ottenerne un impiego. Dai software che sfogliano curricula ai bot che valutano colloqui: le aziende stanno incorporando sempre più strumenti algoritmici nei loro processi di assunzione. Un fenomeno di cui siamo in un certo senso consapevoli ma di fronte a cui tendiamo ad arrenderci.

Un piccolo scossone, con tutte le potenzialità per diventare però significativo, arriva dagli USA. Lo stato di New York ha introdotto a inizio luglio una nuova legislazione per stabilire quanta voce in capitolo può avere l’AI nelle domande di lavoro. È il primo tentativo normativo al mondo con cui si mira a contrastare i pregiudizi dell’AI sul posto di lavoro.

Come New York regola l’AI nelle assunzioni

Per prima cosa, la legge impone una maggiore trasparenza da parte dei datori di lavoro che utilizzano l’intelligenza artificiale e gli algoritmi per decidere assunzioni e promozioni. Quando lo fanno, hanno l’obbligo di informare tutti i candidati che, a loro volta, possono chiedere quali dati personali vengono raccolti.

Il secondo importante obbligo introdotto è quello di sottoporsi a verifiche annuali per individuare potenziali pregiudizi generati dagli strumenti AI utilizzati. Per mettersi in regola, quindi, le aziende dovranno assumere annualmente revisori indipendenti per esaminare le modalità con cui sfruttano l’AI nel campo delle risorse umane e mettere in luce eventuali bias introdotti. Un vero e proprio esame che si tradurrà in un “indice di impatto” per dare una misura concreta dell’effetto della tecnologia sulle assunzioni di gruppi protetti dalla legge, definiti in base alla razza, all’etnia e al genere. Sono previste delle multe per ogni violazione tranne, per il momento, per quelle a discapito di persone con disabilità o lavoratori anziani.

Dove, come e quando l’AI crea pregiudizi

Questa svolta legislativa, per ora circoscritta a un territorio limitato e lontano, mette in luce una realtà diffusa. L’intelligenza artificiale è spesso presente ormai in quasi ogni fase del processo di assunzione. Per prenderne atto si può partire dagli screening automatici di curriculum che, leggendo anche le domande di lavoro, consigliano i migliori candidati per un particolare ruolo aperto. Un meccanismo simile è quello messo in atto dagli algoritmi di matchmaking usati per passare in rassegna milioni di annunci e indicare i ruoli migliori a specifici candidati, e viceversa.

Una volta individuata una rosa di persone potenzialmente adatte, entrano in gioco strumenti che fanno scraping sui social media per raccogliere informazioni su di loro e compilare profili di personalità. Molte aziende usano anche chatbot AI per porre domande sulle qualifiche. Le risposte diventano elementi di decisione come anche gli esiti delle piattaforme video algoritmiche che registrano, trascrivono e analizzano risposte e modelli vocali o facciali, per individuare tratti soggettivi come “apertura” o “coscienziosità”. Le realtà più “avanzate” hanno iniziato a sottoporre i candidati a veri e propri giochi di logica per identificare qualità come l'”assunzione di rischi” o la “generosità”.

Tracciare tutto ciò è difficile e, per le autorità come per i singoli, diventa ancora più complesso per via dell’ampiezza di questo mercato. Esistono tanti fornitori diversi che offrono questi strumenti alle grandi aziende, diventa laborioso se non impossibile monitorarli e regolamentarli tutti, uno per uno. Per non contare la comune ritrosia nel rivelare cosa c’è all’interno della propria tecnologia, anche se è evidente e documentato il fatto che spesso prenda decisioni erratiche, arbitrarie e discriminatorie.

In questo contesto, una legge come quella entrata in vigore a New York rappresenta un passo avanti verso la trasparenza, nonostante molti temano non sia sufficiente a proteggere i candidati da pregiudizi nelle assunzioni. La sensazione, non nuova, è che le autorità di regolamentazione debbano correre più velocemente per tenere il passo con la tecnologia. E che altri governi si debbano muovere per proteggere in modo significativo i candidati al lavoro.

Sempre in USA, in tal senso, vanno citati l’Illinois e il Maryland come i primi a sorvegliare i software di videoassunzione basati sull’intelligenza artificiale. Mentre stati come la California, il New Jersey, New York e il Vermont, insieme al Distretto di Columbia, si sono messi al lavoro, all’Unione Europea per ora resta solo l’EU AI Act come unico strumento in mano ai legislatori per limitare le tecnologie ad alto rischio e vietare i software considerati “inaccettabili”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3