Utilizziamo cookie tecnici per personalizzare il sito web e offrire all’utente un servizio di maggior valore. Chiudendo il banner e continuando con la navigazione verranno installati nel Suo dispositivo i cookie tecnici necessari ai fini della navigazione nel Sito. L’installazione dei cookie tecnici non richiede alcun consenso da parte Sua. Ulteriori informazioni sono contenute nella nostra Cookie Policy.



Le nuove Linee guida del Ministero del Lavoro e il ruolo strategico della governance dell’IA

​​​​​​​​​​​​​​​​​​​​​​​​​​Ultimo aggiornamento del 26.01.2026 | Tempo di lettura ca. 7 minuti


Lo scorso 17 dicembre 2025, il Ministero del Lavoro e delle Politiche Sociali (“MLPS”) ha pubblicato le Linee guida per l’implementazione dell’Intelligenza Artificiale nel mondo del lavoro, segnando un passaggio particolarmente rilevante nel percorso nazionale di regolazione e governo dell’IA. Il documento si inserisce in un quadro normativo europeo e nazionale ormai consolidato, delineato dal Regolamento europeo sull’intelligenza artificiale (“AI Act”), dalla Strategia Italiana per l’Intelligenza Artificiale 2024–2026 e dalla recente legge italiana n. 132/2025 in materia di intelligenza artificiale. Nel loro insieme, tali iniziative riflettono un obiettivo comune: garantire che la crescente adozione di sistemi di IA avvenga in modo lecito, trasparente, antropocentrico e socialmente sostenibile.

Le nuove Linee guida del Ministero del Lavoro e delle Politiche Sociali in materia di IA

Le Linee guida del MLPS non introducono nuovi obblighi giuridici vincolanti. Esse forniscono piuttosto un quadro di indirizzo operativo per le imprese che intendono integrare l’intelligenza artificiale nei contesti organizzativi, tutelando al contempo i diritti dei lavoratori e assicurando la conformità alle normative già vigenti. Il valore del documento risiede proprio in questo approccio pragmatico: l’IA non viene considerata come una semplice innovazione tecnologica, bensì come una trasformazione strutturale destinata a incidere sui processi decisionali, sull’organizzazione del lavoro, sulla cultura aziendale e sui meccanismi interni di responsabilità.

Un messaggio centrale che emerge dalle Linee guida è che l’intelligenza artificiale non può più essere implementata attraverso sperimentazioni isolate o progetti pilota scollegati tra loro. Sebbene molte organizzazioni abbiano già introdotto strumenti di IA per automatizzare attività ripetitive o supportare l’analisi dei dati, il Ministero sottolinea come un’adozione sostenibile richieda una visione strategica complessiva. I sistemi di IA incidono sempre più spesso su ambiti sensibili quali la selezione del personale, la valutazione delle performance, la pianificazione della forza lavoro e la gestione operativa. In assenza di coordinamento e supervisione, il rischio non è soltanto di inefficienza tecnica, ma anche di esposizione legale, danno reputazionale e perdita di fiducia da parte dei lavoratori.

Per tale ragione, le Linee guida incoraggiano fortemente l’integrazione dell’IA nei processi aziendali mediante una roadmap strutturata. Tale percorso prende avvio dalla valutazione della maturità organizzativa e della qualità dei dati, prosegue con la pianificazione strategica e la definizione di modelli di governance e conduce, solo successivamente, alla fase di sperimentazione, implementazione e monitoraggio continuo.

Questo approccio riflette pienamente la logica dell’AI Act, che impone alle organizzazioni — soprattutto in presenza di sistemi di IA ad alto rischio utilizzati in ambito lavorativo — una gestione dei rischi estesa all’intero ciclo di vita della tecnologia.

Integrazione dell’IA nei processi aziendali e governance organizzativa

Un aspetto di particolare rilievo evidenziato dalle Linee guida del MLPS riguarda la necessità di valutare attentamente l’impatto organizzativo dell’intelligenza artificiale prima e durante la sua implementazione. I sistemi di IA possono modificare i flussi di lavoro, ridistribuire le mansioni e incidere sulle gerarchie decisionali, talvolta in modo non immediatamente percepibile. Per questo motivo, le imprese sono invitate a valutare non solo le prestazioni tecniche delle soluzioni adottate, ma anche gli effetti su ruoli professionali, competenze richieste e condizioni di lavoro. L’integrazione dell’IA nei processi aziendali dovrebbe pertanto essere accompagnata da un’analisi organizzativa e, ove necessario, dalla revisione delle procedure interne, al fine di garantire chiarezza, equità e proporzionalità.

Particolare attenzione è dedicata alla tutela dei diritti dei lavoratori nei contesti in cui i sistemi algoritmici supportano o influenzano decisioni rilevanti in ambito occupazionale. Le Linee guida sottolineano l’importanza della trasparenza nei confronti dei dipendenti, soprattutto quando l’IA viene impiegata in attività di selezione, valutazione delle performance, pianificazione dei turni o monitoraggio. I lavoratori dovrebbero essere informati dell’esistenza dei sistemi di IA, delle finalità perseguite, delle tipologie di dati trattati e della presenza di una supervisione umana effettiva. Tale trasparenza costituisce non solo un requisito giuridico previsto dalla normativa europea, ma anche un elemento essenziale per preservare la fiducia e l’accettazione sociale all’interno dell’ambiente di lavoro.

Il Ministero richiama inoltre l’importanza del monitoraggio continuo una volta che i sistemi di IA sono entrati in funzione. L’intelligenza artificiale non è statica: i modelli evolvono, i dati cambiano e le esigenze aziendali si trasformano nel tempo. In assenza di una supervisione costante, sistemi inizialmente conformi ed efficaci possono progressivamente generare bias indesiderati o risultati inaccurati. Audit periodici, valutazioni di impatto e meccanismi di feedback consentono alle organizzazioni di intercettare tempestivamente i rischi emergenti e di intervenire in modo mirato. In questa prospettiva, la governance non rappresenta un adempimento occasionale, ma un processo continuo che accompagna l’IA lungo tutto il suo ciclo di vita.

All’interno di tale cornice di governance, cresce l’attenzione verso la figura del Chief AI Officer (“CAIO” o anche AI Officer). Pur trattandosi di un ruolo relativamente recente, esso sta assumendo un’importanza crescente, in quanto consente di coordinare in modo unitario le iniziative di intelligenza artificiale. Il CAIO è generalmente chiamato a tradurre la strategia aziendale in progetti di IA, garantire la conformità normativa, presidiare i profili etici e favorire il dialogo tra funzioni IT, legali, HR e compliance. La presenza di un punto di responsabilità centrale consente di evitare approcci frammentati e assicura coerenza nella progettazione, implementazione e supervisione dei sistemi di IA.

Le Linee guida del MLPS riconoscono esplicitamente il valore di tale figura, evidenziando come l’introduzione di una funzione dedicata alla governance dell’IA possa rafforzare significativamente il controllo interno. Al tempo stesso, il documento adotta un approccio flessibile: in base alle dimensioni e alla struttura dell’organizzazione, le responsabilità del CAIO possono essere attribuite anche a funzioni già esistenti. In questo contesto, particolare rilievo assume il possibile ruolo evolutivo del Responsabile della Protezione dei Dati (“DPO”).

Il DPO opera già all’interno di un modello di governance basato sul rischio e possiede competenze consolidate in ambiti strettamente connessi all’intelligenza artificiale, quali la protezione dei dati, le decisioni automatizzate, la trasparenza, le valutazioni di impatto e i meccanismi di accountability. Molti dei rischi presidiati dall’AI Act — come bias, spiegabilità e qualità dei dati — presentano evidenti punti di contatto con i principi del GDPR. Per questo motivo, le Linee guida riconoscono che, laddove appropriato e nel rispetto dei requisiti di indipendenza, il DPO possa svolgere anche funzioni di coordinamento tipiche della governance dell’IA.

Ciò non comporta una sovrapposizione formale dei ruoli né la trasformazione del DPO in un responsabile tecnico dell’IA. Si tratta piuttosto di una soluzione pragmatica che valorizza strutture di compliance già esistenti. In concreto, possono svilupparsi modelli ibridi in cui il DPO collabora strettamente con le funzioni IT e di business, apportando competenze giuridiche e di risk management alla strategia complessiva sull’IA. Tale impostazione risulta particolarmente significativa per le piccole e medie imprese.

L’importanza della governance interna trova ulteriore conferma nella posizione assunta dalla Commissione europea sul ruolo dell’AI Officer. Nelle FAQ dedicate all’AI Act, la Commissione chiarisce che il Regolamento non impone l’adozione di uno specifico modello organizzativo né l’obbligo di nominare un AI Officer. Tuttavia, in linea con l’articolo 17, par. 1, lett. m) dell’AI Act, i fornitori di sistemi di IA ad alto rischio devono implementare un sistema di gestione della qualità comprensivo di un framework di responsabilità che definisca i compiti del management e del personale. Inoltre, pur non prevedendo l’obbligo di nominare un AI Officer, l’AI Act impone a fornitori e utilizzatori di garantire, per quanto possibile, un adeguato livello di alfabetizzazione sull’IA per il personale coinvolto nell’uso e nel funzionamento dei sistemi.

Tale chiarimento è particolarmente rilevante: sebbene la nomina del CAIO non sia obbligatoria, l’accountability e l’attribuzione interna delle responsabilità lo sono nella sostanza. Le organizzazioni restano libere di definire il proprio modello di governance, ma non possono sottrarsi all’obbligo di dimostrare controllo, supervisione e competenza nell’uso dell’intelligenza artificiale.

L’alfabetizzazione sull’IA diventa pertanto un elemento essenziale dell’adozione responsabile. La governance non può basarsi esclusivamente su policy o organigrammi: i soggetti coinvolti nella progettazione, nell’implementazione e nell’utilizzo dei sistemi devono comprenderne funzionamento, limiti e rischi, affinché la supervisione umana sia effettiva e non meramente formale.

In conclusione, la pubblicazione delle Linee guida del MLPS conferma un profondo cambiamento di prospettiva. L’intelligenza artificiale non è più considerata un’opzione tecnologica accessoria, ma un fattore strategico che incide direttamente sulla competitività delle imprese, sulle relazioni di lavoro e sull’esposizione regolatoria. Di conseguenza, le organizzazioni sono chiamate a governare l’IA con lo stesso livello di attenzione tradizionalmente riservato ai rischi finanziari, legali e operativi.

In questo scenario, l’adozione di modelli strutturati di governance dell’IA e la previsione di un ruolo di governo dell’IA in capo a un Chief AI Officer ovvero integrato in quello del DPO — rappresenta non solo un percorso verso la conformità normativa, ma anche un’opportunità per rafforzare fiducia, resilienza e creazione di valore nel lungo periodo. Le imprese capaci di integrare l’intelligenza artificiale all’interno di una visione strategica chiara, fondata su responsabilità e supervisione umana, saranno meglio posizionate per affrontare in modo sostenibile il futuro del lavoro.​​​​

dalla newsletter

Legal Newsletter​​​​​​​

autore

Contact Person Picture

Silvio Mario Cucciarrè, LL.M.

Avvocato

Associate

+39 02 6328 841

Invia richiesta

Profilo

Contact Person Picture

Nadia Martini

Avvocato

Partner

+39 02 6328 841

Invia richiesta

Profilo

Skip Ribbon Commands
Skip to main content
Deutschland Weltweit Search Menu