All’inizio di aprile 2021, è trapelata alla stampa una bozza di Regolamento Ue sull’«Approccio europeo all’Intelligenza artificiale» (Ia). La bozza sollevava già, tra le altre cose, molte preoccupazioni sull’uso dell’Ia nei luoghi di lavoro. Il 21 aprile la Commissione europea ha ufficialmente pubblicato la proposta di Regolamento. Questo nostro contributo rappresenta solo una prima reazione a questo documento, nella speranza che altri esperti aggiungano le loro analisi.
Il Considerando 36 della proposta di Regolamento prevede:
«Anche i sistemi di Intelligenza artificiale utilizzati nel mondo del lavoro, nel management dei lavoratori e per l’accesso al lavoro autonomo, in particolare per il reclutamento e la selezione del personale, per prendere decisioni sulla promozione e il licenziamento e per l'assegnazione delle mansioni, il monitoraggio o la valutazione delle persone nei rapporti contrattuali di lavoro, dovrebbero essere classificati come ad alto rischio, poiché tali sistemi possono avere un impatto significativo sulle future prospettive di carriera e sul tenore di vita di queste persone».
Menziona inoltre, molto genericamente, l’impatto potenzialmente discriminatorio dell’Ia nel mondo del lavoro e i rischi che essa comporta per la privacy dei lavoratori. Rispetto alla bozza che era trapelata, la proposta finale menziona esplicitamente anche i lavoratori autonomi e i lavoratori delle piattaforme, per tutelarli indipendentemente dal loro status occupazionale. Questo è un passo avanti rispetto alla formulazione iniziale.
Sebbene classificare i sistemi di Ia utilizzati sul lavoro come "ad alto rischio" sia più che opportuno, la proposta è del tutto insufficiente ad assicurare una protezione ai lavoratori
Sebbene classificare i sistemi di Ia utilizzati sul lavoro come «ad alto rischio» sia più che opportuno, la proposta di Regolamento è del tutto insufficiente ad assicurare una protezione effettiva ai lavoratori.
In primo luogo, la proposta menziona: «i sistemi di Intelligenza artificiale destinati a essere utilizzati per il reclutamento o la selezione di persone fisiche, in particolare per pubblicizzare le offerte di lavoro, vagliare o filtrare le candidature, valutare i candidati nel corso di colloqui o test» e «l'Intelligenza artificiale destinata a essere utilizzata per prendere decisioni sulla promozione e la cessazione di rapporti contrattuali di lavoro, per l'assegnazione di mansioni e per monitorare e valutare le prestazioni e il comportamento delle persone in tali rapporti» (Annex III).
Il Regolamento prevede che questi sistemi siano classificati «ad alto rischio» e, quindi, soggetti a garanzie specifiche. Allo stesso tempo, però, il testo specifica che la valutazione della conformità di questi sistemi alle regole e alle garanzie esistenti sarà soggetta solo a un’autovalutazione da parte del fornitore dei sistemi di Ia. Si tratta di un livello di protezione inferiore rispetto ad altri «sistemi ad alto rischio» che richiedono procedure più rigorose di valutazione della conformità attraverso «il coinvolgimento di un organismo [terzo]». Date le conseguenze straordinariamente gravi che i sistemi di Ia sul lavoro possono comportare e la particolare natura dei luoghi di lavoro, dove i lavoratori sono già soggetti a pressanti poteri aziendali, è molto preoccupante che questa disposizione non sia stata oggetto di alcuna forma di dialogo sociale a livello Ue, coinvolgendo le associazioni sindacali e dei datori di lavoro europee.
Inoltre, il Regolamento sembra dare per scontato che, se i sistemi di Ia utilizzati sul lavoro rispettano i requisiti procedurali che esso stabilisce, gli stessi sistemi dovrebbero essere senz’altro permessi. L’uso dell’Ia per assumere, monitorare (e, quindi, sorvegliare) e valutare «le prestazioni e il comportamento» dei lavoratori è profondamente problematico. Diverse legislazioni nazionali in Europa vietano o limitano fortemente l’uso di strumenti tecnologici per monitorare i lavoratori. In Italia, si tratta dell’articolo 4 dello Statuto dei lavoratori. In Paesi come la Francia e la Germania sono in vigore regole analoghe. La Spagna, inoltre, ha appena introdotto una proposta legislativa che garantisce la trasparenza e l’accesso sindacale degli algoritmi utilizzati sul lavoro.
Adottata così come è, la proposta di Regolamento rischia di prevalere sulle legislazioni più favorevoli ai lavoratori e di innescare una deregolamentazione del diritto del lavoro e delle relazioni industriali
Adottata così come è, la proposta di Regolamento rischia di prevalere su queste legislazioni più favorevoli ai lavoratori e di innescare un processo di deregolamentazione del diritto del lavoro e delle relazioni industriali europei. Ciò è tanto più grave in quanto queste legislazioni nazionali richiedono spesso di coinvolgere i sindacati e i rappresentanti dei lavoratori in azienda prima di introdurre strumenti che consentano una qualsiasi forma di sorveglianza tecnologica, oltre a vietare tout court alcuni di questi strumenti. Il Regolamento, invece, non menziona né le parti sociali né il loro ruolo nella regolamentazione dei sistemi di Ia sul lavoro.
Se il Regolamento non viene corretto, la legislazione nazionale più protettiva rischia di essere superata da questo strumento Ue: il Regolamento, in altre parole, rischia di funzionare come un «tetto massimo» piuttosto che come un «livello minimo» di protezione sul lavoro.
La proposta di Regolamento prevede anche che i sistemi di Ia «ad alto rischio» debbano essere sviluppati permettendo la possibilità di una supervisione umana, come previsto anche dalla bozza iniziale. Questa bozza, però, prevedeva anche che le persone incaricate di questa supervisione avrebbero dovuto essere messe nella posizione, tra l’altro, di «decidere di non utilizzare il sistema di Ia ad alto rischio o i suoi risultati in qualsiasi situazione senza alcun motivo di temere conseguenze negative». Era già problematico che la bozza non menzionasse esplicitamente la necessità di fornire a dirigenti e manager la formazione specializzata e i poteri specifici per contrastare le conseguenze dell’uso di questi sistemi nel contesto di lavoro. Senza una protezione esplicita sul posto di lavoro, infatti, questa disposizione rischiava di non prevenire adeguatamente i provvedimenti disciplinari contro i manager che dovessero rifiutarsi di «obbedire» all’Ia.
Ancora peggio, però, è che la proposta finale non menzioni nemmeno più la necessità di prevenire la paura di conseguenze negative per i supervisori umani che respingano o decidano di non applicare i «suggerimenti» dei sistemi Ia ad alto rischio. La formulazione attuale è perciò del tutto insufficiente a garantire un’effettiva supervisione umana sui luoghi di lavoro!
Queste, come detto, sono solo alcune delle preoccupazioni che la bozza di Regolamento Ue sull’Intelligenza artificiale solleva in merito alla protezione dei lavoratori. È estremamente urgente che le parti sociali e gli esperti riflettano e facciano sentire la propria voce su questo strumento in gestazione.
Riproduzione riservata