Utilizziamo cookie tecnici per personalizzare il sito web e offrire all’utente un servizio di maggior valore. Chiudendo il banner e continuando con la navigazione verranno installati nel Suo dispositivo i cookie tecnici necessari ai fini della navigazione nel Sito. L’installazione dei cookie tecnici non richiede alcun consenso da parte Sua. Ulteriori informazioni sono contenute nella nostra Cookie Policy.



Le indagini datoriali nell’era dell’intelligenza artificiale

PrintMailRate-it

​​​​​​​​​​​​​​​​​​​​​Ultimo aggiornamento del 31.01.2025 | Tempo di lettura ca. 9 minuti


​L’uso dell’intelligenza artificiale nei processi di selezione del personale solleva nuove sfide etiche e giuridiche, richiedendo un’interpretazione evolutiva del divieto di indagini sulle opinioni e un’attenzione particolare ai diritti fondamentali dei lavoratori.

Breve panoramica sul campo di applicazione dell’art. 8 St. lav.​

L’articolo 8 dello Statuto dei Lavoratori, rubricato “Divieto di indagini sulle opinioni”, inibisce al datore di lavoro di svolgere, direttamente o avvalendosi dell’ausilio di terzi, accertamenti sulle opinioni politiche, religiose o sindacali dei lavoratori, nonché su qualsiasi altro aspetto non pertinente “ai fini della valutazione dell’attitudine professionale”. La norma introduce, pertanto, un duplice divieto applicabile tanto nella fase preassuntiva, quanto durante lo svolgimento del rapporto di lavoro: il primo, di carattere assoluto, ma anche strumentale rispetto a quanto previsto dall’art. 15 St. lav. in tema di divieto di atti discriminatori, riguarda le indagini sulle opinioni politiche, religiose o sindacali dei lavoratori; il secondo, invece, ha una portata più ampia, estendendosi a qualsiasi fatto irrilevante ai fini della valutazione dell’attitudine professionale del lavoratore.

Pertanto, mentre il primo divieto – concernendo esplicitamente le sole opinioni politiche, religiose o sindacali dei lavoratori – non pone alcun dubbio interpretativo, la stessa cosa non può sostenersi in relazione al secondo divieto, del quale non è del tutto chiara la portata, essendo difficile determinare con certezza quando un fatto possa considerarsi rilevante per la valutazione dell’attitudine professionale del lavoratore.

Considerato ormai superato l’orientamento che riteneva il concetto di “attitudine professionale” limitato alla sola capacità del lavoratore di svolgere determinate mansioni, e ritenuto ormai pacifico il principio che estende tale valutazione anche alle condotte extraziendali che producono effetti sul rapporto di lavoro, permangono comunque notevoli difficoltà nel definire con precisione il perimetro di applicazione del divieto. La genericità della norma richiede, dunque, un’attenta interpretazione caso per caso, considerando la specificità delle situazioni e gli eventuali effetti delle condotte esaminate sul corretto svolgimento del rapporto lavorativo.

La giurisprudenza, come anticipato, ha progressivamente adottato un approccio più estensivo in merito all’ampliamento della sfera di indagine datoriale.

Emblematiche, in tal senso, le pronunce relative ai bandi di concorso e alle procedure di assunzione, che hanno riconosciuto la possibilità di sottoporre a valutazione anche fatti di natura extralavorativa, purché idonei a compromettere il rapporto fiduciario alla base del contratto di lavoro o a ledere l’immagine e gli interessi economici dell’azienda (tra le tante, si segnala Cass. 14 agosto 2020, n. 17167, in cui è stata considerata legittima la procedura di selezione del personale che richiede ai candidati coinvolti l’esibizione del certificato dei carichi pendenti).

L’art. 8 St. lav. alla prova delle nuove tecnologie: l’impatto dell’intelligenza artificiale

Con l’avvento dei sistemi di intelligenza artificiale si ravvisa un rischio ancor maggiore se si pensa che tali strumenti, avvalendosi di algoritmi avanzati ed elaborando grandi quantità di dati, consentono al datore di lavoro di raccogliere, analizzare e incrociare informazioni personali, spesso senza il consenso esplicito da parte dei lavoratori, ampliando così la possibilità di condurre indagini sugli aspetti della loro vita privata, comprese opinioni e comportamenti extralavorativi, in modo potenzialmente invasivo e lesivo della privacy.

Tale rischio si acuisce in considerazione della difficoltà di monitorare e limitare l’uso improprio di tali tecnologie – vuoi per una mancanza di “dimestichezza”, vuoi per una noncuranza circa le loro potenzialità –, le quali potrebbero generare discriminazioni indirette o valutazioni non trasparenti, ponendosi in contrasto con i divieti e le garanzie previste dall’art. 8 St. lav.

Sebbene autorevole dottrina ritenga necessario ridefinire alla stregua delle nuove tecnologie – e quindi attualizzare – il concetto di “indagine”, includendovi le informazioni raccolte e processate dai sistemi di intelligenza artificiale, la vigente formulazione dell’art. 8 St. lav. è già sufficientemente ampia da ricomprendere al suo interno qualsiasi tipo di attività conoscitiva attraverso cui il datore di lavoro, anche con l’ausilio dell’intelligenza artificiale, riesca a raccogliere informazioni, e quindi a compiere un’indagine, su ciò che è oggetto di divieto.​

​L’utilizzo dei sistemi di intelligenza artificiale nella fase di selezione del personale: focus sul cd. social recruiting

Un aspetto delicato da ricondurre nell’ambito regolato dall’art. 8 dello St. lav. riguarda l’uso degli algoritmi e dell’intelligenza artificiale per la selezione del personale. Queste tecnologie, pur semplificando e accelerando il processo decisionale, comportano anche una serie di risvolti etici, giuridici e gestionali. 

In particolare, i rischi legati all’invasività del trattamento dei dati dei candidati, alle finalità di tali operazioni e all’affidabilità delle decisioni prese da algoritmi sono temi che destano non poche perplessità, destinate ad aumentare con il progressivo incremento dell’uso di simili strumenti e la limitata presenza di orientamenti giurisprudenziali in materia.

Come noto, un fenomeno che ha rivoluzionato la selezione del personale è stato l’ingresso dei social media e dei social network nel mercato del lavoro (cd. “social recruiting”). Piattaforme come LinkedIn, Indeed e altre sono ormai divenute imprescindibili per le aziende in cerca di personale (e per i lavoratori in cerca di lavoro). Non solo: anche i social media di uso generale, come Facebook, sono sempre più utilizzati anche per scopi professionali, ampliando ulteriormente le possibilità di ricerca e selezione, così come la possibilità di raccolta dati.

I datori di lavoro utilizzano questi strumenti per diverse finalità, che includono la diffusione di offerte di lavoro, la ricerca di candidati tramite la consultazione di profili professionali – e talvolta non – online, la verifica delle informazioni fornite dai candidati durante i colloqui o nei curricula, e l’analisi della loro web reputation. L’uso di queste pratiche solleva tuttavia seri problemi legati all’affidabilità delle informazioni reperite sui social media. La facilità con cui le persone possono presentarsi online in modi che non rispecchiano completamente la realtà può compromettere la qualità delle decisioni prese dai selezionatori. Ciò comporta un elevato rischio di distorsioni (cd. bias) nella selezione, con potenziali conseguenze dannose per i candidati, che potrebbero essere giudicati in modo scorretto o ingiusto.

In relazione all’uso dei social media, quindi, la profilazione dei candidati attraverso modelli algoritmici di corrispondenza può consentire una valutazione automatizzata del loro potenziale e della loro compatibilità con determinati ambienti lavorativi, nonché una previsione dei comportamenti futuri.

In particolare, mediante l’impiego di sistemi di intelligenza artificiale possono essere raccolti dati relativi alla vita privata dei candidati, come abitudini quotidiane, relazioni personali o preferenze espresse sui social media. Un esempio emblematico potrebbe riguardare un post pubblicato su un social network da un candidato, in cui quest’ultimo condivide una foto scattata durante una vacanza con commenti ironici sul proprio stile di vita rilassato; ma si pensi anche alle foto che possano ritrarre il soggetto ad eventi di natura politica o sindacale, o anche solo semplicemente ai post con i quali il candidato commenta, magari con linguaggio colorito, recenti fatti di cronaca o di politica. 

Tutti dati comportamentali che possono essere profilati per tracciare un quadro della personalità del candidato o persino per fare previsioni sui suoi comportamenti futuri in ambito lavorativo.
Un ulteriore ambito di attenzione riguarda i dati biometrici, come il riconoscimento facciale o l’analisi delle espressioni durante un colloquio registrato tramite video. Questi strumenti (già peraltro impiegati negli Stati Uniti) possono rappresentare un’inquietante invasione nella sfera personale dell’individuo, soprattutto laddove non sussista alcuna delle basi giuridiche previste per il trattamento dei dati particolari (in particolare il consenso), dall’art. 9, par. 2, del Regolamento (UE) 2016/679, noto come GDPR, ossia la normativa europea sulla protezione dei dati personali. O ancora, quando non sia stata fornita una adeguata informativa, non sia stata effettuata una valutazione di impatto o non siano state adottate misure tecniche di cifratura e cancellazione immediata dei dati.

Sebbene questi strumenti presentino innegabili potenzialità analitiche, va ribadito che la loro affidabilità non è assoluta. Il contributo umano è essenziale nella progettazione del modello del sistema e nella definizione dei suoi parametri (cfr. art. 14 AI Act). Banalmente, potrebbe sussistere il rischio che gli algoritmi risultino influenzati da pregiudizi derivanti dalle convinzioni del programmatore o da distorsioni statistiche e stereotipi sociali, generando i già menzionati bias.

Conseguentemente, se è inevitabile che l’intelligenza artificiale diventi una risorsa fondamentale per la gestione dei processi di reclutamento e selezione del personale, è altrettanto vero che il suo utilizzo richiederà una gestione attenta e consapevole.

Non a caso, il recente Regolamento (UE) 1689/2024 (AI Act) include tra i sistemi di IA ad alto rischio di cui all’art. 6, paragrafo 2, quelli impiegati “per l’assunzione o la selezione di persone fisiche” nel caso in cui gli stessi presentino un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone. Questi sistemi di IA (cd. stand-alone), considerati ad alto rischio, sono elencati nell'Allegato III del Regolamento, che include esplicitamente, tra l’altro, strumenti come quelli utilizzati per pubblicare annunci di lavoro mirati, analizzare o filtrare candidature e valutare i candidati.

Ad ogni modo, lo stesso AI Act prevede eccezioni. Ad esempio, alcune soluzioni di IA sarebbero esonerate dalle restrizioni imposte ai sistemi ad alto rischio se utilizzate per migliorare l’esito di un’attività umana già completata, oppure se impiegate per compiti preliminari a una valutazione più complessa e rilevante. In buona sostanza, la deroga si applica a quei sistemi che svolgono compiti preparatori o che sono solo un supporto al processo decisionale umano, senza influenzare direttamente la valutazione finale del candidato.
Nei sistemi di intelligenza artificiale impiegati per la selezione, è fondamentale che il trattamento dei dati sia limitato esclusivamente a quelli indispensabili per valutare la prestazione lavorativa richiesta. Questo implica l’adozione di un approccio che minimizzi l’uso dei dati personali, assicurandone la pertinenza rispetto alle finalità del trattamento.

L'attività di screening e selezione dei curricula dei candidati, soprattutto se effettuata mediante sistemi di intelligenza artificiale, implica infatti necessariamente il trattamento di dati personali e quindi l’applicazione del GDPR.

Ma come noto, il GDPR prevede che qualsiasi azienda o organizzazione che raccolga e analizzi dati personali – come nel caso della selezione del personale – è tenuta a rispettare rigorosi principi di liceità, correttezza e trasparenza. Inoltre, deve garantire l'adozione di misure adeguate per tutelare i diritti e le libertà fondamentali dei candidati, prevenendo eventuali discriminazioni derivanti da processi di profilazione o decisioni automatizzate. Misure che possono includere da un risk assessment a una valutazione di impatto, sino ad informative a consensi, misure tecniche ed organizzative.

In conformità al principio di privacy by design, il sistema di intelligenza artificiale dovrà quindi operare utilizzando esclusivamente informazioni rilevanti e aggiornate per accertare l’idoneità del lavoratore alla specifica prestazione, garantendo al tempo stesso il pieno rispetto della riservatezza e dei diritti dell’interessato.​

Considerazioni conclusive​

L’articolo 8 dello Statuto dei Lavoratori rappresenta un pilastro essenziale per la tutela della dignità e della libertà individuale nel rapporto di lavoro, preservando non solo la dimensione privata del lavoratore, ma anche quella che il Garante Privacy nella persona di Stefano Rodotà definiva la “proiezione pubblica della persona”. Come affermato dallo stesso Rodotà, “i dati […] non si collocano in una sfera strettamente privata, dalla quale si vuole allontanare qualsiasi sguardo indesiderato. Sono invece costitutivi della proiezione pubblica della persona, sì che accompagnarli con un divieto di raccolta ha la funzione di evitare che, su questa base, un lavoratore possa essere discriminato”.

In un contesto caratterizzato dall’uso crescente di sistemi di intelligenza artificiale e, più in generale, di strumenti automatizzati per il reclutamento, diventa cruciale garantire che tali tecnologie siano utilizzate nel rispetto dei principi di trasparenza, proporzionalità e minimizzazione dei dati. Il lavoratore non deve solo essere informato sugli scopi e sulle logiche dei sistemi adottati, ma deve anche poter esercitare il diritto di accesso ai dati trattati e alle logiche decisionali, per mezzo diretto o tramite rappresentanze sindacali.
Nonostante le sfide poste dall’evoluzione tecnologica, il sistema normativo italiano si dimostra sufficientemente attrezzato per affrontare questi cambiamenti, forte della capacità adattiva delle sue norme, prima fra tutte l’art. 8 St. lav.​​​​​​​

 dalla newsletter

Legal Newsletter​​​​​​​

autore

Contact Person Picture

Lorenzo Ceraudo

Avvocato

Associate Partner

+39 02 6328 841

Invia richiesta

Profilo

Contact Person Picture

Alessandro Murru

Dottore in Giurisprudenza

Junior Associate

+39 02 6328 841

Invia richiesta

Profilo

Deutschland Weltweit Search Menu