Skip to main content

Nel 2019 il 98% delle 500 imprese scelte dalla rivista Fortune come “aziende del momento” utilizzava un Applicant tracking system (Ats) nel proprio processo di assunzione dei candidati, e non solo per questioni di costi o efficienza, ma proprio per annullare le discriminazioni.
Gli algoritmi e l’Intelligenza Artificiale dovrebbero, infatti, aiutare a superare i bias anche in fase di selezione del personale, assicurando imparzialità. Ma persino gli Ats potrebbero avere pregiudizi, finendo per replicare i limiti umani e di conseguenza danneggiando l’azienda che, inconsapevolmente si fida degli algoritmi, rimettendosi alla tecnologia in questa fase del processo di scelta delle persone. Eppure ci si chiede: come può avere bias un software? I pregiudizi di un essere umano possono affiorare in diversi modi.
Per esempio, quando il recruiter si trova di fronte un potenziale candidato, questi, con la sua voce o il suo aspetto esteriore, ne può orientare la valutazione. Ma potrebbero emergere anche semplicemente in seguito alla lettura delle informazioni scritte nei curriculum vitae. Le persone con nomi e cognomi che suonano ‘più bianchi’ hanno, per esempio, il 75% in più di possibilità di ottenere un colloquio rispetto a chi ha nomi asiatici e il 50% in più rispetto ai nomi black-sounding; inoltre i nomi maschili hanno il 40% di chance in più rispetto a quelli femminili.
I dati sono confermati da uno studio condotto nel 2016 da ricercatori dell’University of Toronto e della Stanford University. Si presuppone, quindi, che un Ats sia studiato esattamente per evitare questo tipo di discriminazioni. Purtroppo invece neanche Amazon è riuscita a crearne uno, la notizia è di qualche tempo fa: il software per l’assunzione utilizzato dal colosso della distribuzione online, in quel caso, selezionava più uomini ingegneri rispetto alle donne, a parità di competenze. Si potrebbe dire (a ragione) che nell’ambito ingegneristico la numerosità di maschi è superiore a quella delle donne (che tuttavia cresce: se nel 2000 il tasso di donne laureate in ingegneria era del 16%, nel 2017 si è saliti al 28%, con le donne che rappresentano oggi circa il 19% della popolazione di ingegneri, come fanno sapere dal Centro Studi del Consiglio Nazionale Ingegneri); ma in quel caso, probabilmente, l’ AI aveva applicato alla ricerca presente un ragionamento fondato sulla tendenza passata, dando per scontato che, se prima gli ingegneri erano quasi esclusivamente uomini, allora così avrebbe dovuto continuare ad essere.
Ma come si fa a migliorare il processo?
Una delle soluzioni è il “Blind Recruiting”, per ridurre i bias, i cv vengono anonimizzati, eliminando ogni riferimento al nome, cognome sesso, età, e nazionalità.
Deckx, oltre ad anonimizzare i cv, genera delle card standardizzate che mettono in risalto le competenze di ogni candidato, in modo da offrire un processo di selezione basato solo sulle competenze e non sulla persona.

Leave a Reply