Intelligenza artificiale: Linee guida ministeriali per l’implementazione nel mondo del lavoro

Introduzione

Il Ministero del Lavoro e delle Politiche Sociali ha pubblicato le ‘Linee guida per l’implementazione dell’intelligenza artificiale nel mondo del lavoro’ già oggetto di consultazione pubblica nel periodo compreso tra il 14 aprile 2025 e il 21 maggio 2025.

Attraverso il predetto documento, il Dicastero ha inteso evidenziare le opportunità e le criticità che l’adozione di un sistema di IA può presentare nel contesto aziendale e, più precisamente, con riferimento all’organizzazione del lavoro, evidenziando, a più riprese, come l’implementazione consapevole di un sistema di IA debba:

  • garantire la trasparenza del funzionamento del sistema stesso, assicurando lo svolgimento dell’attività di sorveglianza e supervisione umana e l’osservanza delle norme nazionali e internazionali vigenti in materia di intelligenza artificiale;
  • tutelare i lavoratori da discriminazioni algoritmiche e dall’utilizzo improprio di dati personali;
  • assicurare lo svolgimento di adeguati programmi di formazione e riqualificazione professionale;
  • promuovere il dialogo sociale come strumento attraverso il quale introdurre l’intelligenza artificiale nei luoghi di lavoro.

Se si esclude un rinvio generale al Regolamento (UE) n. 1689/2024 del 13 giugno 2024 in forza del quale sono stabilite regole armonizzate sull’intelligenza artificiale, il documento in esame non prende espressamente in esame alcuna delle disposizioni contenute in tale regolamento. È opportuno precisare che un sistema di IA è qualificato ‘ad alto rischio’ e il suo utilizzo comporta l’obbligo di osservanza di un novero articolato di adempimenti per il datore di lavoro utilizzatore, quando il sistema di IA:

  • sia destinato a essere utilizzato come componente di sicurezza di un prodotto;
  • costituisca un componente di sicurezza di un prodotto soggetto a una valutazione di conformità da parte di terzi ai fini dell’immissione sul mercato o la messa in servizio;
  • è destinato a essere utilizzato per l’assunzione o la selezione di persone fisiche, in particolare per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati;
  • è utilizzato al fine di adottare decisioni riguardanti le condizioni dei rapporti di lavoro, ‘la promozione o cessazione dei rapporti contrattuali di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti e delle caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento delle persone nell’ambito di tali rapporti di lavoro’.

Il richiamato Regolamento è entrato in vigore in data 2 agosto 2024. Al momento sono effettivamente applicate le sole norme dettate in materia di pratiche di IA vietate e di alfabetizzazione in materia di IA.

Il Regolamento troverà applicazione a decorrere dal 2 agosto 2026, ad eccezione delle disposizioni in tema di sistema di IA ad alto rischio, applicabili dal 2 agosto 2027.

Il quadro normativo consta altresì di un Disegno di legge recante ‘Disposizioni e deleghe al Governo in materia di intelligenza artificiale’, il cui testo, già approvato dalla Camera dei deputati in data 25 giugno 2025, è stato trasmesso all’esame in terza lettura al Senato della Repubblica.

Integrare un sistema di IA nei processi di produzione

Nonostante l’adozione di un sistema di IA possa portare vantaggi concreti per l’impresa in termini di aumento della produttività e di miglioramento della qualità dei servizi offerti, un processo di transizione verso l’implementazione di nuove tecnologie deve necessariamente basarsi su una valutazione preventiva delle reali esigenze e finalità individuate dall’impresa, al fine di consentire al datore di lavoro/utilizzatore (deployer) di poter adottare il sistema più adatto fra quanti presenti sul mercato.

La prima fase del processo di adozione di un sistema di IA indicata dalle Linee guida in esame consiste infatti nell’identificazione delle aree aziendali in relazione alle quali l’adozione di un sistema di IA può apportare un valore aggiunto (AI Readiness Assessment).

Una volta identificate le finalità che l’impresa intende perseguire ricorrendo ad un sistema di IA, occorre procedere con la pianificazione del processo di transizione (digitale), definendo i) le necessarie misure tecniche ed organizzative nonché il relativo budget, ii) i termini di realizzazione di ciascuna fase del processo d’implementazione, iii) un piano formativo, iv) uno spazio di sperimentazione del sistema.

L’adozione di un sistema di IA implica dunque un monitoraggio costante del funzionamento del sistema stesso, in modo da valutarne con periodicità i risultati e ottimizzarne l’utilizzo.

Il coinvolgimento dei lavoratori

Nell’ipotesi in cui l’implementazione di un sistema di IA all’interno dell’organizzazione aziendale sia attuata senza la previsione di adeguate misure di tutela dei lavoratori coinvolti, la nuova tecnologia può esporre i lavoratori a rischi per la salute e sicurezza e generare forme di disuguaglianza.

Pur riconoscendo il dialogo sociale quale principio fondamentale per una corretta implementazione di un sistema di IA, specie quando esso sia ‘ad alto rischio’, le Linee guida non rinviano espressamente alle disposizioni dettate dalla legislazione comunitaria e nazionale e che già contemplano l’obbligo di un preventivo coinvolgimento dei rappresentanti dei lavoratori. Si pensi ad esempio:

  • all’art. 1-bis del D.Lgs. n. 152/1997, recante ‘Ulteriori obblighi informativi nel caso di utilizzo di sistemi decisionali o di monitoraggio automatizzati’ e in vigore dal 13 agosto 2022 (un sistema di IA può costituire un sistema automatizzato);
  • all’art. 26, par. 7 del Reg. UE 2024/1689, che introduce, a decorrere dal 2 agosto 2027, l’obbligo per il datore di lavoro/deployer d’informare preventivamente i rappresentanti dei lavoratori nonché i lavoratori interessati circa l’imminente impiego di un sistema di IA ad alto rischio. Un ulteriore sviluppo inerente al testé richiamato obbligo d’informazione potrebbe essere rinvenuto nell’art. 9, c. 1 della Legge n. 76/2025 laddove si precisa che ‘i rappresentanti dei lavoratori (…) possono essere preventivamente consultati in merito alle scelte aziendali’;
  • alle disposizioni contenute in un contratto collettivo di lavoro in forza delle quali sia stato introdotto uno specifico obbligo di informazione.

Principio di trasparenza

L’impresa è tenuta a garantire che le modalità d’impiego di un sistema di IA siano chiare e comprensibili per tutti i lavoratori, evitando che lo strumento sia utilizzato per prendere decisioni in modo opaco o senza possibilità di verifica.

Stando a quanto disposto dalle Linee guida, il principio di trasparenza mira altresì a garantire a ciascun lavoratore il diritto di poter chiedere spiegazioni con riguardo ad una decisione che sia stata assunta dal sistema di IA o per il tramite di questo.

In particolare, è specificato come l’utilizzo trasparente di un sistema di IA implichi:

  • chiarezza con riferimento al processo decisionale assunto dal sistema di IA;
  • lo svolgimento continuo dell’attività di ‘supervisione umana’, disciplinata, sebbene le Linee guida non esprimano un riferimento dall’art. 14 del Regolamento;
  • la documentazione dei processi legati all’IA (è ragionevole ritenere che il riferimento sia in questo caso implicitamente vòlto a quanto disposto, ad esempio, dall’art. 12 del Regolamento in materia di ‘conservazione delle registrazioni’).

Supervisione umana

Considerando che dall’adozione di un sistema di IA in un’impresa non può in ogni caso derivare la violazione dei diritti fondamentali dei lavoratori, le Linee guida precisano come il funzionamento di un sistema di IA ad alto rischio debba essere sottoposto, come più sopra accennato, a sorveglianza umana, senza che tale misura risulti ‘invasiva’ e pregiudichi l’esercizio dei diritti dei lavoratori nonché la qualità del lavoro.

Si evidenzia come in relazione all’obbligo di sorveglianza umana (human oversight) di un sistema di IA le Linee guida omettano di svolgere argomentazioni giuridiche essenziali con riguardo al combinato disposto di cui agli artt. 26, par. 2 e 14 del Reg. (UE) n. 1689/2024, ai sensi dei quali è rispettivamente fatto obbligo al datore di lavoro/deployer di designare persone fisiche a cui affidare lo svolgimento dell’attività di sorveglianza umana che, a sua volta, deve essere condotta secondo modalità ‘commisurate ai rischi, al livello di autonomia e al contesto di utilizzo del sistema di IA ad alto rischio’.

La tutela della salute e sicurezza

È stabilito che l’uso dell’IA nei luoghi di lavoro debba avvenire nel rispetto della salute e della sicurezza dei lavoratori.

In tema di rischi per la salute e la sicurezza derivanti dall’utilizzo di un sistema di IA, le Linee guida in oggetto si limitano a menzionare i) i rischi da stress-lavoro correlato nonché ii) i bias algoritmici che possono produrre fenomeni discriminatori nei confronti di determinati gruppi di lavoratori.

Non è espresso alcun riferimento ai rischi ai quali i lavoratori potrebbero essere esposti in conseguenza dell’impiego di un sistema di IA.

A tal riguardo, è opportuno precisare che restano fermi gli obblighi posti in capo al datore di lavoro:

  • di effettuare la valutazione dei rischi ed elaborare il relativo documento (DVR), in collaborazione con il responsabile del servizio di prevenzione e protezione (RSPP) e con il medico competente (art. 29, c. 1 del D.Lgs.n. 81/2008);
  • di rielaborare la valutazione dei rischi, anche interferenziali, e provvedere all’aggiornamento dei relativi documenti, in occasione di modifiche del processo produttivo o dell’organizzazione del lavoro significative ai fini della salute e sicurezza dei lavoratori (art. 29, c. 3 del D.Lgs. n. 81/2008).

Formazione

All’interno di un processo di transizione digitale che induca l’impresa ad adottare un sistema di IA, la formazione assume un ruolo centrale per l’acquisizione da parte dei lavoratori in forza delle competenze necessarie per un utilizzo consapevole di un sistema di IA.

In tal senso, l’art. 4 del Reg. (UE) n. 1689/2024, applicabile sin dal 2 febbraio 2025, stabilisce che il deployer di un sistema di IA è tenuto a garantire un livello sufficiente di alfabetizzazione in materia di IA almeno dei lavoratori direttamente coinvolti nel processo d’integrazione del sistema di IA nel processo produttivo.

A tal fine, le Linee guida evidenziano l’opportunità o, in taluni casi, la necessità di progettare e realizzare percorsi formativi inclusivi, anche ricorrendo a webinar, piattaforme e-learning e corsi modulari aventi ad oggetto le seguenti materie:

  • il funzionamento base del sistema di IA in uso;
  • alfabetizzazione digitale, machine learning e data science;
  • le normative nazionali ed europee in materia di intelligenza artificiale e protezione delle persone fisiche con riguardo al trattamento dei dati personali (in particolare il Reg. (UE) n. 1689/2024 e il Reg. (UE) n. 1679/2016).

In riferimento ai rischi per la salute e la sicurezza legati all’uso delle tecnologie intelligenti, l’ordinamento già prevede un obbligo in capo al datore di lavoro di far effettuare ai lavoratori una formazione specifica in caso di ‘introduzione di nuove tecnologie’ nell’organizzazione aziendale (art. 37, c. 4 lett. c) del D.Lgs. n. 81/2008).

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.