Come credo sia noto a tutti (o quasi) l’iter di approvazione dell’AI Act è giunto al termine. Siamo in attesa solo della pubblicazione in Gazzetta Ufficiale. Come è altrettanto noto l’applicabilità del Regolamento non sarà immediato, ma come è avvenuto anche per altri atti normativi prima dell’AI ACT sono previste diverse scadenza per lasciare alle Aziende e alla PA di adeguarsi alle nuove normative.
Più precisamente il Regolamento entrerà in vigore il ventesimo giorno dalla pubblicazione in Gazzetta Ufficiale. Tuttavia:
- ci saranno sei mesi dall’entrata in vigore per eliminare gradualmente i sistemi vietati dall’AI Act;
- le norme di governance generali a tutte le aziende e le PA devono essere implementate entro dodici mesi;
- entro due anni dall’entrata in vigore il Regolamento sarà pienamente applicabile, comprese le norme per i sistemi ad alto rischio.
All’interno delle aziende attualmente l’uso di sistemi di Intelligenza Artificiale generativa è già diffuso sia per l’uso in ambito marketing, ma anche a supporto di molti uffici come gli uffici legali (si veda anche ChatGPT in azienda: condizioni d’uso e privacy). Ma molti parlano, se non adottano già, dell’uso dei sistemi di intelligenza artificiale nella gestione delle risorse umane. Di seguito, quindi, alcuni primi ragionamenti sull’applicabilità al contesto lavoristico dell’AI Act anticipando temi e attività con cui inevitabilmente le aziende dovranno confrontarsi.
Indice
Casi sicuramente vietati
L’AI Act prevede dei sistemi di Intelligenza Artificiale che sono comunque e sempre vietati. In particolare è vietata «l’immissione sul mercato, la messa in servizio per tale finalità specifica o l’uso di sistemi di IA per inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro e degli istituti di istruzione(…)»
Si tratta di quei sistemi di riconoscimento delle emozioni sui luoghi di lavoro.
Analogamente è vietata «l’immissione sul mercato, la messa in servizio per tale finalità specifica o l’uso di sistemi di categorizzazione biometrica che classificano individualmente le persone fisiche sulla base dei loro dati biometrici per trarre deduzioni o inferenze in merito a razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale»
Si pensi, ad esempio, di estrapolazione indiscriminata di immagini facciali da internet o alle registrazioni dei sistemi di telecamere a circuito chiuso – capaci di creare banche dati di riconoscimento facciale (il già noto web scraping).
Quindi, sistemi che rientrano in queste categorie non possono essere immessi sul mercato, ma neppure essere utilizzati.
Classificazione dei sistemi per le risorse umane
Tralasciando i casi vietati in quali classi di rischio dell’AI Act inseriamo i sistemi applicati alle Risorse Umane?
La risposta si trova nell’Allegato III “Sistemi di IA ad alto rischio di cui all’articolo 6, paragrafo 2”. In forza dell’Allegato III sono ad altro rischio (tra gli altri):
- I sistemi di IA destinati ad essere utilizzati per il reclutamento o la selezione di persone fisiche, in particolare per inserire annunci di lavoro mirati, per analizzare e filtrare le domande di lavoro e per valutare i candidati;
- i sistemi di IA destinati a essere utilizzati per prendere decisioni che influiscono sulle condizioni dei rapporti di lavoro, sulla promozione o sulla cessazione dei rapporti contrattuali di lavoro, per assegnare compiti in base al comportamento individuale o a tratti o caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento di persone in tali relazioni.
Quindi, Sistemi di Intelligenza Artificiale utilizzati per la selezione del personale e per la gestione delle condizioni di lavoro sono classificati come sistemi ad alto rischio.
Facciamo qualche esempio: Sistemi di AI utilizzati per creare e pubblicare annunci di lavoro mirati a determinate categorie o Sistemi di valutazione automatica dei candidati, sistemi automatizzati che decidono su premi o assegnazioni di compiti oppure sistemi che monitorano e valutano le prestazioni di un candidato/dipendente sulla base delle caratteristiche personali.
Casi non certo di scuola neppure oggi che il Regolamento non è ancora stato pubblicato.
A questi casi strettamente connessi alla gestione del rapporto di lavoro si aggiungono i sistemi di Intelligenza Artificiale applicati all’Istruzione e alla formazione professionale.
Il ruolo del datore di lavoro alla luce dell’AI ACT
Nell’ambito della gestione dei rapporti di lavoro il soggetto che decide di utilizzare Sistemi di Intelligenza Artificiale è il datore di lavoro.
Per AI Act quindi il datore di lavoro è il “deployer”, ovvero la “persona fisica o giuridica, autorità pubblica, agenzia o altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale.”
Se il datore di lavoro, come deployer, apporta modifiche sostanziali ad un sistema di Intelligenza artificiale ad alto rischio già immesso sul mercato o in servizio il suo ruolo cambia. Il datore di lavoro diventa, quindi, “provider” o “fornitore”.
Modifiche sostanziali possono essere – ad esempio – aggiornamenti che alterano la funzionalità del sistema o la modifica dell’algoritmo. In tale caso il datore di lavoro dovrà preoccuparsi anche degli adempimenti richiesti per il fornitore.
[Si veda anche: Provider e Deployer nell’AI Act: chi sono e cosa fanno?]
Adempimenti
Cosa deve fare il Datore di lavoro che intende utilizzare Sistemi di Intelligenza artificiale nel settore della gestione delle risorse umane?
Preliminarmente il datore di lavoro deve preventivamente informare i rappresentati dei lavoratori e i lavoratori interessati sull’uso dei sistemi di intelligenza artificiale che si intendono utilizzare (si veda Considerando 92 del AI Act).
Il principio di trasparenza presente in molte altre normative e qua ribadito, però, sembra riguardare un mero obbligo di comunicare ai lavoratori e rappresentanti sindacali l’adozione di questi sistemi e non anche un obbligo di informazione inteso come “coinvolgimento” nella scelta del datore di lavoro. Questo rappresenta forse una lacuna del Regolamento che potrebbe essere colmata a livello normativo nazionale
Rispetto delle Istruzioni e sorveglianza umana
I deployer devono garantire che i sistemi di intelligenza artificiale siano utilizzati secondo le istruzioni per l’uso fornite dal fornitore.
Le istruzioni, quindi devono essere comprese e implementate nel contesto lavorativo. Non è un rispetto delle istruzioni di mera forma, ma di pura sostanza. Il sistema deve funzionare come previsto dal fornitore poiché il mancato rispetto delle istruzioni può portare un malfunzionamento con rischi per la sicurezza e violazione della conformità.
I deployer, poi, devono affidare la sorveglianza umana a persone fisiche che dispongono della competenza, della formazione e delle autorità necessarie affinché il sistema venga utilizzato nel rispetto di quanto indicato dal fornitore.
Quindi, un primo obbligo ricade nella scelta del personale che deve occuparsi della sorveglianza umana verificando il possesso di competenze necessarie e di un adeguato livello di alfabetizzazione. Implementare correttamente un meccanismo di “sorveglianza umana” è un passaggio molto delicato, ma strategico per il buon funzionamento di un sistema di intelligenza artificiale. Andranno definiti, quindi, i ruoli, compiti e le responsabilità delle persone adibite a tale obbligo, fornendo gli strumenti necessari anche per intervenire tempestivamente in caso di incidenti. In un sistema così complesso una “Valutazione di Impatto” è sicuramente uno strumento utile per valutare tutte le criticità.
Consigli Pratici
Avremo sicuramente modo di tornare sull’uso di sistemi di Intelligenza Artificiale nei rapporti di lavoro, ma qualche consiglio può essere dato sin da ora.
Abbiamo avuto modo di dirlo in più occasione, si raccomanda di prestare molta attenzione nella scelta del fornitore e del sistema che si intende utilizzare. Leggere attentamente le condizioni contrattuali e le caratteristiche tecniche del sistema che si intende utilizzare è una buona (se non ottima) prassi per partire in modo corretto.
Ma non ci si può fermare qua.
Visto il settore così delicato l’adempimento dell’obbligo di trasparenza verso i lavoratori e verso le rappresentanze sindacali va visto in modo allargato e non solo limitato alla mera comunicazione del sistema che si intende utilizzare.
Infine, si raccomanda l’applicazione del principio della “sorveglianza umana”. Si tratterà di un obbligo normativo, certo, ma è molto di più. Infatti, in un settore così delicato e in questa fase di tanta incertezza, avere del personale qualificato che controlli lo strumento in maniera completa e complessiva è fondamentale per non vanificare o benefici che i sistemi di intelligenza artificiale possono portare.
Un’ultima considerazione. Non si si può pensare di utilizzare un Sistema di Intelligenza Artificiale nel settore delle risorse umane senza considerare tutte le norme che governano la materia. Quindi non ci si può fermare al contenuto dell’AI Act, ma si deve inquadrare il sistema all’interno di un sistema di più complesso che parte dallo Statuto dei Lavoratori (articolo 4), ma passa attraverso al Decreto trasparenza e da ultimo, ma non per importanza, dal Regolamento Generale sulla protezione dei dati.