La legge 132/2025, in vigore dal 10 ottobre, ha introdotto nell’ordinamento italiano un quadro organico sull’impiego dell’intelligenza artificiale nei rapporti di lavoro. L’articolo 11 stabilisce che le aziende devono informare in modo chiaro i lavoratori e le rappresentanze sindacali sull’uso di algoritmi nei processi decisionali che riguardano l’assunzione, la gestione, l’organizzazione, la valutazione o la cessazione del rapporto di lavoro.
Questa informativa deve essere scritta, preventiva e completa, e contenere la descrizione della logica e delle finalità dell’algoritmo, le categorie di dati trattati, le metriche di valutazione, le misure di controllo umano, i soggetti responsabili, i livelli di accuratezza e i rischi potenziali. Ogni modifica significativa va comunicata con almeno 24 ore di anticipo e le stesse informazioni devono essere trasmesse anche alle rappresentanze sindacali aziendali o territoriali. Il lavoratore ha inoltre diritto a richiedere ulteriori chiarimenti scritti entro trenta giorni.
L’omissione di questi obblighi comporta sanzioni comprese tra 250 e 1.500 euro per ciascun lavoratore, aumentabili mensilmente in caso di persistenza della violazione. A queste sanzioni si aggiungono le responsabilità in materia di privacy qualora il trattamento non sia conforme al Regolamento europeo sulla protezione dei dati (GDPR).
A livello europeo, il Regolamento UE 2024/1689 (AI Act) classifica come ad alto rischio i sistemi AI utilizzati nella gestione dei rapporti di lavoro e impone obblighi di trasparenza, tracciabilità, qualità dei dati e controllo umano. La Direttiva UE 2024/2831 sul lavoro tramite piattaforme digitali aggiunge ulteriori prescrizioni, da recepire entro i termini previsti. Il quadro normativo europeo si orienta dunque verso un approccio regolatorio basato su obblighi procedurali, volti a garantire l’equilibrio tra innovazione e tutela dei diritti fondamentali.
Le imprese devono dotarsi di modelli organizzativi capaci di rispondere a questi obblighi. È richiesto di analizzare l’impatto delle tecnologie sull’organizzazione del lavoro, valutare i rischi e adottare misure correttive. Particolare attenzione è posta sull’uso dell’AI nell’esercizio del potere direttivo, che può determinare forme di controllo non percepibili dai lavoratori e che vanno ricondotte nell’ambito dell’articolo 4 dello Statuto dei lavoratori.
Il principio di trasparenza non si esaurisce nella comunicazione iniziale: la persona interessata ha diritto a ottenere una spiegazione chiara e comprensibile delle decisioni automatizzate che la riguardano. Questo principio è stato recentemente confermato dalla Corte di giustizia dell’Unione europea, che ha specificato i requisiti di intelligibilità e accessibilità della spiegazione. Inoltre, la mancata giustificazione di una decisione può comportare l’inversione dell’onere della prova a carico del datore, analogamente a quanto previsto dalla direttiva 2023/970 in tema di trasparenza retributiva.
Il trattamento dei dati raccolti tramite AI deve essere conforme ai principi di correttezza, trasparenza e proporzionalità. È vietata ogni forma di social scoring, valutazione automatizzata del comportamento sociale dei lavoratori e profilazione lesiva della dignità personale. Anche gli strumenti utilizzati direttamente dai lavoratori per svolgere la prestazione lavorativa (es. PC, tablet, software) sono soggetti a limiti se contengono funzionalità di AI che consentano il controllo a distanza.
Un esempio recente è il provvedimento del Garante privacy del 29 aprile 2025, che ha dichiarato illecito il trattamento di metadati della posta elettronica dei dipendenti della Regione Lombardia, per assenza di informativa, mancata valutazione d’impatto e impossibilità di anonimizzare le informazioni. Questo caso evidenzia quanto sia necessario adottare soluzioni organizzative e tecnologiche in linea con le prescrizioni normative.
Un secondo esempio, invece virtuoso, è l’accordo siglato il 28 luglio 2025 tra GlaxoSmithKline, ViiV Healthcare e le RSU, che disciplina un progetto pilota per l’impiego dell’AI generativa nel supporto agli informatori scientifici. L’intesa prevede adesione volontaria, anonimizzazione, limiti di conservazione dei dati e il rispetto dell’articolo 4 dello Statuto dei lavoratori. L’AI è qui vista come uno strumento a supporto delle decisioni umane, non sostitutivo.
Questo dimostra che l’impiego dell’AI nei rapporti di lavoro può essere regolato in modo responsabile, mediante un dialogo tra le parti sociali che consenta di integrare le innovazioni con la tutela dei diritti. In questa prospettiva, il ruolo degli studi professionali è centrale per accompagnare le imprese in un percorso di adeguamento giuridico, organizzativo e tecnico.
"*" indica i campi obbligatori