Si segnala che, con il Decreto n. 180 del 17 dicembre 2025, il Ministro del Lavoro ha adottato le "Linee guida per l'implementazione dell'IA nel mondo del lavoro", finalizzate a promuovere l'adozione consapevole dell'intelligenza artificiale nei contesti lavorativi, "tutelando i diritti dei lavoratori, favorendo l'innovazione sostenibile e garantendo la conformità alle normative vigenti".
Le Linee Guida sono soggette ad aggiornamento a cura dell'Osservatorio sull'adozione di sistemi di intelligenza artificiale nel mondo del lavoro, di cui all'art. 12 della Legge 23 settembre 2025, n. 132, contenente disposizioni e deleghe al Governo in materia di intelligenza artificiale, per quanto attiene alla materia del lavoro (v. "Lavoro e Previdenza" n. 35/2025).
Nel riportare in allegato il testo del decreto e delle linee guida, si sottolinea che nel documento sono riportati alcuni principi guida per un uso responsabile e sicuro dell'IA nel mondo del lavoro, atteso che la stessa sta diventando sempre più presente nei contesti lavorativi, trasformando il modo in cui le aziende gestiscono i processi produttivi e le risorse umane.
Sono richiamati, infatti, il rispetto dei diritti dei lavoratori, delle normative vigenti e dei principi etici che garantiscono un ambiente di lavoro equo e sicuro, affinché l’IA sia un’opportunità e non un rischio. Essa deve essere utilizzata in modo umanocentrico e supervisionato, senza danneggiare la dignità e i diritti dei lavoratori, secondo i principi contenuti:
- nel Regolamento sull’Intelligenza Artificiale (AI Act) (UE) n. 2024/1689 del 13 giugno 2024, che rappresenta il primo quadro normativo armonizzato in materia e che introduce obblighi specifici per i sistemi ad alto rischio, come quelli utilizzati per la selezione, il monitoraggio e la valutazione del personale, tra i quali la supervisione umana qualificata, la trasparenza e spiegabilità degli algoritmi, la tracciabilità dei processi decisionali e la realizzazione di audit periodici per prevenire discriminazioni e malfunzionamenti;
- nel Regolamento generale sulla protezione dei dati (GDPR) (UE) n. 2016/679 del 27 aprile 2016, il quale limita le decisioni esclusivamente automatizzate e promuove la protezione dei dati fin dalla progettazione del sistema o del processo che comporta il trattamento dei dati, attraverso misure tecniche e organizzative adeguate e proporzionate (minimizzazione, pseudonimizzazione, trasparenza);
- nella normativa italiana (Statuto dei lavoratori, Testo Unico in materia di sicurezza e sicurezza sul lavoro e Decreto Legislativo 8 giugno 2001, n. 231, sulla responsabilità amministrativa delle persone giuridiche);
- nelle strategie e nei piani di policy, come la Strategia Italiana per l’IA, il PNRR, la Strategia Nazionale di Cybersicurezza e il Piano Triennale per l’informatica nella Pubblica Amministrazione, che promuovono un’adozione etica e sicura delle tecnologie digitali.
Anche la contrattazione collettiva può rappresentare uno strumento utile per accompagnare l’adozione dell’intelligenza artificiale, favorendo soluzioni condivise che possano conciliare innovazione tecnologica e diritti fondamentali, senza introdurre vincoli rigidi per le imprese.
In estrema sintesi, il Ministero del Lavoro rimarca che le decisioni automatizzate devono poter essere comprese, verificate e, se necessario, corrette, evitando che scelte rilevanti per la vita professionale delle persone siano delegate interamente a processi algoritmici.
La corretta implementazione dei processi che utilizzano l'IA si fonda pertanto su tre pilastri:
- la trasparenza, intesa come accessibilità e chiarezza dei processi decisionali, affinché i soggetti interessati sappiano quando e come l’IA viene utilizzata;
- la spiegabilità, che implica la possibilità di comprendere la logica sottostante alle decisioni, non solo da parte degli sviluppatori, ma anche da chi subisce o governa tali decisioni;
- la responsabilità, che richiede di individuare con precisione i soggetti responsabili lungo l’intera filiera, dal progettista all’utilizzatore, per garantire accountability e prevenire zone d’ombra.
Equità e non discriminazione, inoltre, costituiscono basi normative ed etiche fondamentali su cui poggia la regolamentazione dell’uso dell’IA in Europa. In particolare:
- il principio di equità impone che i sistemi di intelligenza artificiale siano sviluppati, addestrati e utilizzati in modo giusto e imparziale, senza favorire o svantaggiare indebitamente alcun individuo o gruppo;
- il principio di non discriminazione comporta che i sistemi di IA non producano o amplifichino discriminazioni basate su etnia, genere, religione, orientamento sessuale, disabilità o altri fattori protetti.
Il Ministero orienterà la sua azione su tre linee direttrici ritenute fondamentali:
- la formazione e lo sviluppo delle competenze per tutti i lavoratori, favorendo l’aggiornamento professionale, l’acquisizione di competenze in linea con il mercato del lavoro e l’inserimento in ruoli coerenti con le trasformazioni in atto;
- la tutela dei lavoratori, al fine di prevenire discriminazioni, proteggere la privacy e assicurare che l’IA non venga utilizzata in modo improprio nei processi aziendali, garantendo la supervisione umana, la trasparenza algoritmica e la sicurezza nei luoghi di lavoro;
- la riduzione del divario digitale e l'inclusione dei gruppi svantaggiati.
Per informazioni: key account dei Gruppi merceologici, Servizio Normativa del Lavoro e Previdenziale, Servizio Legale, Servizio Innovazione (v. pagina dei contatti).
TOPICS
I PIÙ LETTI
12 Gennaio 2026
Risorse umane | News
20 Febbraio 2026
Risorse umane | News