era una volta un tempo in cui il datore di lavoro, quando doveva assumere qualcuno, si trovava davanti a pile di curricula alte fino al soffitto.
Oggi non è più lui a leggere quei cv e spesso nemmeno il suo addetto al personale. A svolgere questo compito ci pensa l’intelligenza artificiale. All’inizio di questo mese OpenAI ha annunciato lo sviluppo di una nuova piattaforma per il lavoro, un servizio di assunzione basato sull’IA, con lancio previsto entro la metà del 2026. Lo strumento promette di semplificare l’incontro tra aziende e candidati, utilizzando l’algoritmo di casa per abbinare le competenze richieste a quelle disponibili.
Il colosso sembra mirare a diventare – oltre che un motore di ricerca avanzato – un ecosistema integrato che copre anche la gestione della carriera e della vita lavorativa degli utenti. Prospettiva che potrebbe rendere difficile restare fuori dal sistema dell’IA.
I dati del fenomeno
Secondo una ricerca del Politecnico di Milano, il 32% delle aziende italiane ha già integrato almeno una soluzione di intelligenza artificiale nei propri processi di selezione del personale.
Anche il 40% dei professionisti delle risorse umane ha intrapreso investimenti in tecnologie basate sull’IA, come attesta uno studio recent di SD Works, facendo registrare un balzo di quattro punti percentuali rispetto all’anno precedente.
Tra le soluzioni più diffuse troviamo i sistemi di elaborazione del linguaggio naturale, utilizzati prevalentemente per l’analisi dei candidati. La macchina effettua una prima scrematura dei profili analizzando i curricula ricevuti in modo automatico.
Ai margini finiscono i profili meno attraenti. Il problema sta nel capire che cosa questo significhi per la macchina, che se non controllata, ragiona in base ai dati con cui è stata addestrata, la cui provenienza spesso non è nota. Per questo capita che le selezioni non siano oggettive, ma riflettano pregiudizi, bias culturali e stereotipi.
Il tutto a una velocità record e senza l’intermediazione umana che magari – non sempre – qualche dubbio se lo pone.
L’automatizzazione dei processi selettivi privilegia chi ha una presenza online e sui social, in modo da confrontare e analizzare post, interazioni, lavori precedenti dei possibili candidati. Il rischio è che chi non è sulle piattaforme si trovi di fronte a uno svantaggio competitivo notevole.
«Ancora, nessuna garanzia contro il rischio di discriminazione è fornita dal crisma della neutralità attribuito all’azione automatizzata, governata da algoritmi e/o sistemi di IA» , scrive nel saggio “La discriminazione algoritmica” Marco Peruzzi, professore associato di Diritto del lavoro all’Università di Verona.
Il caso Amazon
Amazon aveva sviluppato un sistema interno per il recruiting automatico, sperimentale, che assegnava ai candidati un punteggio da una a cinque stelle. Nel 2015 il colosso si è accorto che il sistema non valutava in modo neutro i candidati per i ruoli di sviluppatore software e altre posizioni tecniche: in particolare, l’algoritmo penalizzava le candidate donne.
«Il sistema di IA utilizzato per il ranking dei candidati a posizioni di sviluppatori di software era stato addestrato sulla base dei curricula ricevuti dall’azienda negli ultimi dieci anni in modo che “imparasse” i parametri per individuare i soggetti “statisticamente migliori”. Di conseguenza aveva posizionato ai primi posti della classifica soltanto uomini», spiega ancora Peruzzi. Il settore degli sviluppatori software è infatti stato per molti anni quasi esclusivamente ad appannaggio maschile e per questo, secondo la macchina, essere donne era una caratteristica negativa per la selezione. In questo caso a essere utilizzato è un algoritmo di machine learning. La macchina considera i dati nel loro insieme e sceglie chi ha caratteristiche simili a chi ha avuto successo in passato.
Mobley vs Workday
La sentenza Mobley contro Workday del il 12 luglio 2024 emessa dal tribunale federale della California ha stabilito che i fornitori di software IA per la selezione del personale possono essere ritenuti direttamente responsabili per discriminazione sul posto di lavoro. Derek Mobley, un uomo afroamericano di oltre 40 anni con disturbi d’ansia e depressione, ha intentato causa contro Workday, società statunitense di software per la gestione delle risotse umane, accusando il suo sistema automatizzato di screening delle candidature di discriminare sulla base di razza, età e disabilità. L’uomo sosteneva di essere stato respinto per oltre 100 posizioni lavorative nonostante soddisfacesse i requisiti richiesti.
Opacità algoritmica
Uno dei problemi principali dei processi di selezione automatizzati è quello dell’opacità algoritmica. Si tratta della difficoltà di capire come un algoritmo prende le sue decisioni. Esiste perché molti sistemi, come le reti neurali, sono tecnicamente complessi e funzionano come scatole nere, come descritte nel report di PwC “Responsible AI for Generative AI”. «L’IA generativa – si legge – si basa spesso su un “modello di base” sviluppato da terzi esperti. Poiché non si possiede né si ha accesso al funzionamento interno di questo modello, comprendere le ragioni alla base di una risposta può risultare impossibile. In alcuni casi, gli strumenti di intelligenza artificiale generativa non indicano nemmeno quale soluzione di terze parti venga effettivamente utilizzata».
A questo si aggiungono ragioni economiche e legali: le aziende spesso non rivelano i dettagli per proteggere i propri interessi o per mancanza di trasparenza. «Per questo le risposte che forniscono gli algoritmi devono sempre essere sottoposte alla supervisione umana», spiega Martina Mauri direttrice dell’Osservatorio HR Innovation del Politecnico di Milano. «I controlli devono essere periodici e devono accertarsi che l’algoritmo non produca errori e discriminazioni».
Invisibilità digitale
I sistemi di filtraggio automatico dei CV e le piattaforme di recruiting digitale evolute possono risultare penalizzanti per chi non ha una presenza online strutturata, in particolare su Linkedin. I recruiter infatti si affidano sempre più a strumenti che aggregano dati provenienti da profili pubblici e li integrano con le informazioni fornite dal candidato. Questo significa che chi non lascia tracce digitali rischia di avere minori possibilità di essere intercettato o contattato spontaneamente, pur restando valutabile attraverso i canali di selezione tradizionali
«Le implicazioni per le persone in cerca di lavoro sono profonde: la tua impronta digitale e le tue attività online possono avere un grande effetto su quanto sei attraente e visibile per i potenziali datori di lavoro», si legge sulla Harvard Business Review.
«La tua presenza sui social media può creare o distruggere la tua ricerca di lavoro. Attingere alle connessioni e alle idee della tua rete può darti un vantaggio», continua. La stessa piattaforma di Linkedin, tra l’altro, ha lanciato il suo assistente digitale «Hiring Assistent», con cui è l’intelligenza artificiale che – dopo una prima scrematura – segnala i profili più adatti al recruiter che posta l’annuncio.
Ancora questi sistemi non sono molto diffusi in Italia, ma già da tempo curare i propri profili social sembra essere una condizione imprescindibile per non cadere nell’oblio avere una minima speranza di trovare lavoro.
© Riproduzione riservata