Utilizziamo cookie tecnici per personalizzare il sito web e offrire all’utente un servizio di maggior valore. Chiudendo il banner e continuando con la navigazione verranno installati nel Suo dispositivo i cookie tecnici necessari ai fini della navigazione nel Sito. L’installazione dei cookie tecnici non richiede alcun consenso da parte Sua. Ulteriori informazioni sono contenute nella nostra Cookie Policy.



Lavoro 5.0: Recruiting, quando a scegliere è l’intelligenza artificiale

PrintMailRate-it

​​​​​​​​​​​​​​​​​​​​​​​​​​​​Ultimo aggiornamento del 16.12.2024 | Tempo di lettura ca. 10 minuti


Il caso Vera: l’Intelligenza Artificiale di IKEA »

Il rischio del bias: il caso Amazon​ »

Mancanza di trasparenza​​ »

‘Disumanizzazione’ del processo di selezione​​​ »

E la privacy?​​​ »

Recruiting e AI Act​​​ »

Conclusioni​​​ »


“…Dopo un sondaggio fra 225 manager americani esperti in ricerca del personale, emerge che il 60 per cento delle grandi compagnie americane utilizza già sistemi evoluti di AI (Artificial Intelligence) per gestire le risorse umane. La percentuale è prevista crescere all’82 per cento entro il 2026. Il network Globe Newswire di Los Angeles stima in 4 miliardi di dollari il business dei sistemi AI per la gestione del personale delle aziende. Questa cifra è stimata ad aumentare del 35 per cento nei prossimi cinque anni, fino a toccare 17 miliardi di dollari”.

Sono questi i dati forniti dal giornalista Umberto Torelli sul Corriere della Sera con un articolo intitolato ‘Algoritmi emotivi, assunto, lo dice il robot’.

Gli HR del futuro non saranno più solo essere umani, ma robot e software avanzatissimi in grado di rivoluzionare i processi di selezione. Questi strumenti possono vagliare ogni giorno migliaia di curricula, analizzandoli con una precisione e una velocità impensabili per un essere umano. Sono in grado di svolgere interviste preliminari tramite chatbot, riconoscere le soft skill attraverso l’analisi del linguaggio, valutare l’idoneità del candidato tramite test psicoattitudinali automatizzati e persino monitorare le espressioni facciali e il tono della voce dei candidati durante i video colloqui.

Ma quanto sono affidabili questi strumenti? Possono davvero valutare caratteristiche complesse come la creatività, l’empatia, o il potenziale umano? E quali sono i rischi di delegare decisioni così importanti ad un algoritmo? La risposta a queste domande determinerà il futuro del rapporto tra uomo e tecnologia nel mondo del lavoro.

Il caso Vera: l’Intelligenza Artificiale di IKEA​

Un esempio concreto di come l’Intelligenza Artificiale stia rapidamente diventando un’alleata insostituibile nel mondo della selezione del personale è VERA, bot sviluppato nel 2018 dalla start-up russa Strafory. 

Vera è un sofisticato algoritmo progettato per supportare le aziende nelle prime fasi del recruiting, automatizzando attività complesse e ripetitive. Il colosso IKEA ha deciso di integrarla nel proprio processo di selezione, ottenendo risultati straordinari in termini di efficienza.

Vera è in grado di analizzare migliaia di curricula in pochissimi secondi, selezionando i profili più in linea con i requisiti richiesti per la candidatura. È in grado di condurre interviste preliminari telefoniche e tramite video, porre domande e valutare le risposte. Non solo: Vera può anche riconoscere le emozioni quali la rabbia, il piacere e la delusione. La sua efficienza è sorprendente, riduce del 50 per cento il tempo necessario per le assunzioni, permettendo ai recruiter di concentrarsi sulle fasi più strategiche del processo. 

Sono, quindi, numerosissimi i benefici derivanti dall’utilizzo degli algoritmi nella selezione del personale: ma ci sono dei rischi? Ovviamente sì e non sono trascurabili.

Il rischio del bias: il caso Amazon​

Uno dei principali rischi riguarda la possibilità che gli algoritmi perpetuino o amplifichino i bias discriminatori presenti nei dati utilizzati per il loro addestramento: se i dati storici riflettono pratiche di assunzione non inclusive, l’algoritmo potrebbe discriminare candidati in base a genere, etnia o altre caratteristiche personali. È quanto successo ad un sistema di machine learning utilizzato da Amazon nel 2014.

L’obiettivo era ambizioso: creare un algoritmo in grado di individuare i talenti più promettenti, analizzando i dati dei curricula inviati all’azienda nell’arco di dieci anni.

Tuttavia, il sistema presentava un problema fondamentale: discriminava sistematicamente le donne. 
Come mai? L'algoritmo si era “addestrato” su un database storico in cui la maggioranza dei candidati assunti erano uomini, specialmente per posizioni tecniche/IT. Di conseguenza, il sistema aveva dedotto che i profili maschili fossero più desiderabili, penalizzando automaticamente i curricula che includevano parole come “donna” o riferimenti a esperienze tipicamente femminili.

Mancanza di trasparenza​

Gli algoritmi di intelligenza artificiale, soprattutto quelli basati sul deep learning operano attraverso modelli matematici estremamente complessi, che analizzano enormi quantità di dati. Tuttavia - talvolta anche per gli esperti che li progettano - può risultare difficile illustrare in modo chiaro come e perché un algoritmo ha proposto un determinato output, come ad esempio, la selezione di un candidato invece di un altro. 

Questa mancanza di trasparenza può avere diverse conseguenze negative: in primo luogo, rende estremamente difficile, per le aziende, verificare se l’algoritmo stia operando in modo equo o se stia discriminando alcune categorie di persone. Conseguentemente, qualora le aziende non fossero in grado di comprendere appieno le dinamiche di funzionamento dell’algoritmo, non potrebbero poi intervenire per migliorare il sistema in caso di errori o anomalie. In secondo luogo, la mancanza di trasparenza può compromettere la fiducia dei candidati nel processo di selezione: chi viene scartato da un sistema algoritmico potrebbe, infatti, chiedersi su quali basi sia stato giudicato non idoneo, senza riuscire ad ottenere una risposta soddisfacente.

La mancanza di trasparenza negli algoritmi di intelligenza artificiale solleva significative problematiche anche sul piano legale: qualora un candidato escluso dalla selezione decidesse di agire in giudizio per discriminazione, chi ha l’onere di dimostrare il corretto e regolare funzionamento dell’algoritmo? 

In particolare, in ordine alle procedure di selezione del personale, quando un candidato escluso si ritiene vittima di un output discriminatorio assunto dall’algoritmo, l’opacità del suo funzionamento può rappresentare un ostacolo probatorio insormontabile per il lavoratore, che non ha accesso al codice sorgente o ai dati di configurazione necessari per dimostrare il bias.

Tuttavia, il principio giuridico di “vicinanza della prova” stabilisce che, qualora le informazioni rilevanti siano sotto il controllo esclusivo di una parte – in questo caso il datore di lavoro – spetta a quest’ultimo l’onere di dimostrare il corretto funzionamento dell’algoritmo e l’assenza di discriminazioni anche mediante l’implementazione di misure, conformi agli standard internazionali (cfr. ISO/IEC TS 12791, pubblicati ad Ottobre 2024) e volte a mitigare i bias indesiderati dei sistemi di AI. 

La responsabilità delle conseguenze dell’incertezza probatoria ricade, dunque, sul datore di lavoro, che utilizza algoritmi senza garantire trasparenza sul loro funzionamento.

In altre parole, sebbene l’onere di provare un fatto ricada generalmente su chi lo invoca a sostegno della propria tesi, l’opacità degli algoritmi e la difficoltà per il lavoratore di provarne i meccanismi di funzionamento giustificano – in alcuni casi – un alleggerimento dell’onere probatorio a suo vantaggio. 

Ciò si aggiunge, peraltro, ad una questione distinta e altrettanto rilevante: l’ulteriore alleggerimento dell’onere probatorio a favore del lavoratore che si ritiene vittima di una condotta discriminatoria. Si consideri, ad esempio, il caso di una lavoratrice, che ritiene di essere stata discriminata nella fase di selezione in quanto donna. Qualora decidesse di agire in giudizio, dovrà limitarsi a dimostrare di essere portatrice di un fattore di rischio – in questo caso, il genere – nonché di aver subito un trattamento svantaggioso in considerazione di detto fattore (i.e. sono stati assunti principalmente uomini). Sulla base di tali elementi, la discriminazione sarà ritenuta provata, salvo che il datore di lavoro non riesca a fornire una prova ‘piena’ che escluda la natura discriminatoria del trattamento.

Da ultimo, la sussistenza di tale difficoltà probatoria in capo al candidato discriminato dal sistema di AI sembrerebbe trovare altresì riconoscimento nella proposta di Direttiva UE sulla responsabilità civile da intelligenza artificiale (o più comunemente “AILD”), volta a facilitare il risarcimento del danno a colui che abbia subito un danno derivante dall’utilizzo di sistemi di AI. 

‘Disumanizzazione’ del processo di selezione​

Ulteriore rischio dell’utilizzo degli algoritmi nella selezione del personale è la riduzione del ruolo dell’intuizione e della sensibilità umana nel processo di selezione. Come già detto, gli algoritmi, per quanto avanzati siano, operano basandosi su regole e modelli matematici costruiti su dati storici e parametri predefiniti. Tuttavia, la complessità dell’essere umano spesso sfugge a una categorizzazione rigida. 
Pensiamo alla seguente domanda posta da un bot nella selezione di un candidato: “Ti ritieni una persona affidabile?” 

Per alcuni l’affidabilità potrebbe essere interpretata come la capacità di rispettare le scadenze, per altri potrebbe significare essere disponibili ad aiutare colleghi in caso di necessità. Un sistema di intelligenza artificiale è in grado di distinguere tra queste diverse interpretazioni e di cogliere il significato che il candidato attribuisce alla parola?  

Il problema, in altre parole, è che l’AI non riesce – almeno per ora – a captare la sensibilità dell’uomo e le sfumature semantiche. Gli algoritmi non sono progettati per comprendere le emozioni o per cogliere il potenziale non espresso di una persona. Non possono ‘andare oltre’ ai dati che ricevono o immaginare scenari diversi da quelli che sono stati loro ‘insegnati’. 

Per tutti questi motivi (e non solo), l’intelligenza artificiale dovrebbe essere utilizzata sempre sotto la supervisione attenta dell’uomo, che rimane l’unico in grado di interpretare le situazioni con sensibilità, intuizione e flessibilità. Solo l’essere umano, infatti, è in grado di deviare – se lo ritenesse necessario – dalle istruzioni predefinite e di comprendere a fondo le peculiarità del soggetto che ha di fronte, valorizzandone alcuni aspetti che un algoritmo potrebbe non cogliere. L’intelligenza artificiale, quindi, non deve assolutamente sostituire l’uomo nel processo di selezione ma piuttosto affiancarlo, fungendo da strumento per l’ottimizzazione dei tempi e per l’efficientamento dell’intero processo di selezione. 

E la privacy?

Non dimentichiamoci, infine, che l’attività di screening e selezione dei curricula dei candidati, anche tramite i sistemi di AI in analisi, comporta imprescindibilmente il c.d. “trattamento di dati personali” ai sensi della normativa vincolante sulla protezione dei dati, vale a dire il Regolamento UE n. 679/2016 (comunemente conosciuto come “GDPR”).  Tale disciplina, ormai applicabile ufficialmente dal 2018, obbliga le aziende e le organizzazioni che trattino dati personali – incluso nel caso di specie, i dati personali dei candidati raccolti e analizzati nell’ambito dei sistemi di recruiting – al rispetto di principi binding e all’implementazione di adempimenti stringenti tesi a garantire la correttezza e trasparenza di dette operazioni nei confronti dell’interessato (i.e. il candidato), a tutelarne i diritti e le libertà fondamentali, nonché a prevenirne gli impatti discriminatori potenzialmente originati da sistemi di c.d. profilazione o trattamenti automatizzati, anche attraverso il riconoscimento degli specifici diritti di informazione, accesso, rettifica, opposizione e cancellazione riconosciuti espressamente dagli artt. 12-22 del GDPR. Pena, la possibile applicazione delle sanzioni amministrative pecuniarie previste dall’art. 83 del GDPR che, per le imprese, vanno fino a 20 milioni di Euro o al 4 per cento del fatturato mondiale annuo dell’organizzazione.

Recruiting e AI Act

Il Regolamento Europeo sull’Intelligenza Artificiale (“AI Act”) classifica i sistemi di AI destinati ad essere utilizzati ‘per l’assunzione o la selezione di persone fisiche’ tra quelli ‘ad alto rischio’ ai sensi dell’art. 6, paragrafo 2 del Regolamento. 

Si tratta in particolare di tutti quei sistemi utilizzati per: a) pubblicare annunci di lavoro mirati; b) analizzare o filtrare le candidature e c) valutare i candidati.

La classificazione di un sistema di AI quale ‘sistema ad alto rischio’ comporta una serie di obblighi particolarmente stringenti per i fornitori e gli utilizzatori (i.e. deployers) di tali tecnologie. In primo luogo, i sistemi utilizzati devono essere progettati per garantire la trasparenza e la tracciabilità delle decisioni. Inoltre, devono essere implementate misure per mitigare i bias algoritmici: i dati utilizzati per addestrare i sistemi devono essere inclusivi, privi di pregiudizi e regolarmente aggiornati per evitare discriminazioni basate su genere, etnia, età e altre caratteristiche personali.

Altro requisito fondamentale riguarda la sorveglianza umana. L’AI Act sottolinea l’imprescindibilità di mantenere una supervisione umana nel processo decisionale, in particolare per situazioni in cui l’output può avere un impatto significativo sui diritti fondamentali della persona, come l’accesso al lavoro.

Accanto ai sistemi qualificati come ad alto rischio (ovvero in posizione sovraordinata, seguendo la “piramide del rischio”), occorre altresì ricordare che il Regolamento prevede, inoltre, il divieto assoluto di immettere sul mercato, mettere in servizio o utilizzare alcune categorie di sistemi di intelligenza artificiale che presentino un rischio inaccettabile per i diritti e le libertà fondamentali. Tra questi, rientrano i sistemi progettati per la manipolazione subliminale delle persone o per sfruttare vulnerabilità specifiche, come quelle basate sull’età o su condizioni fisiche o mentali. Nel contesto lavorativo, ciò significa che sono vietati strumenti che possano influenzare in modo ingannevole o coercitivo le decisioni dei candidati o dei lavoratori. Un ulteriore divieto riguarda i sistemi che utilizzano tecniche di social scoring, per classificare le persone sulla base di comportamenti, preferenze o caratteristiche personali non pertinenti alla posizione lavorativa. 

Ancora, il Regolamento vieta i sistemi di categorizzazione biometrica che classificano le persone fisiche sulla base dei dati biometrici per trarre deduzioni sulla razza, opinioni politiche, appartenenze sindacali, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale. 

Conclusioni​

L’utilizzo dell’Intelligenza Artificiale nel recruiting implica la necessità di operare un complesso bilanciamento: da un lato, offre alle aziende una velocità e una capacità di analisi senza precedenti; dall’altro, rischia di amplificare pregiudizi o di non cogliere le sfumature umane che sono fondamentali per la valutazione di un candidato.

Per sfruttarne appieno i benefici e mitigare i rischi, non basta affiancare la supervisione umana all’uso degli algoritmi. È fondamentale che le aziende intraprendano un percorso strutturato di analisi, diretto principalmente a comprendere a fondo il funzionamento dei sistemi adottati, a monitorarne gli impatti concreti sui relativi output e individuare potenziali criticità, come i bias o l’opacità decisionale. Solo attraverso questa consapevolezza è possibile implementare misure efficaci per garantire l’equità, la trasparenza, la non-discriminazione e il rispetto dei diritti fondamentali dei candidati. In questo modo, l’AI potrà diventare un alleato prezioso per le aziende – anziché un rischio – nella costruzione di un processo di selezione, e più in generale di un processo di gestione del personale, compliant all’ordinamento nonché più inclusivo e sostenibile. 

autore

Contact Person Picture

Massimo Riva

Avvocato

Associate Partner

+39 02 6328 841

Invia richiesta

Profilo

Contact Person Picture

Carlotta Caminati

Avvocato

Associate

+39 02 6328 841

Invia richiesta

Profilo

 i nostri servizi

Deutschland Weltweit Search Menu