Il numero 2/2024 della rivista “Diritto della sicurezza sul lavoro”, pubblicazione online dell’Osservatorio Olympus dell’Università degli Studi di Urbino, apporta una riflessione sui nuovi rischi derivanti dalla digitalizzazione e dall’impiego di sistemi di intelligenza artificiale partendo da due possibili problematiche: la prima è relativa alla sperimentazione di veicoli a guida autonoma, la seconda tratta dall’insorgenza di patologie stress lavoro-correlato attinenti l’operato dei moderatori dei contenuti social.

 Il saggio dal titolo “ Digitalizzazione e I.A.: nuovi rischi per la salute dei lavoratori e ridefinizione degli obblighi datoriali. Note a partire da due casi studio: sperimentazione di self-driving cars e moderazione dei contenuti social” è a cura di Ilaria Giugni, docente a contratto di Diritto penale del lavoro presso l’Università degli Studi di Napoli “Federico II”.

Ci soffermiamo sul secondo dei casi trattati: i pericoli che caratterizzano “una nuova professione che incrocia l’ambito digitale, quella della moderazione dei contenuti pubblicati sui social networks”. In questo caso si parla dell’insorgenza di patologie stress-correlate “nei moderatori a causa della stessa mansione loro affidata”, soffermandosi su stress lavoro-correlato e responsabilità penale con riferimento ai social media e alla moderazione dei contenuti.

Ribadendo come si tratti “di un mestiere nuovo, originato dalla necessità di controllare e filtrare ex post i contenuti postati sulle piattaforme digitali”, il saggio continua affermando come “Tale attività, infatti, non viene attualmente delegata completamente all’algoritmo: dopo una prima scrematura effettuata dall’I.A., la scelta su che cosa conservare e che cosa cancellare è rimessa a delle persone/dei lavoratori in carne ossa”.

Quindi la scelta di non rinunciare all’intervento umano “è motivata dalla necessità di salvaguardare la libera espressione di pensiero sulle piattaforme, dal momento che si ritiene che l’algoritmo di moderazione automatica non sia pienamente in grado di cogliere le sfumature di alcuni post pubblicati”.

Dato che i moderatori visionano immagini o video segnalati come spesso disturbanti o violenti, “non è quindi difficile immaginare come la stessa mansione loro affidata possa incidere sul loro stato di salute mentale, come dimostrano le testimonianze raccolte con non poche difficoltà in questi anni”. In particolare, emerge una “particolare vulnerabilità di questa categoria di lavoratori, rafforzata anche dalle condizioni di lavoro talvolta precarie e dalla riservatezza loro imposta attraverso non disclosure agreements dallo stesso datore di lavoro (la piattaforma social o, più spesso, un intermediario)”.

L’art. 28 del T.U.S.L. impone al datore di lavoro di considerare ‘tutti i rischi per la sicurezza e la salute dei lavoratori, ivi compresi quelli riguardanti gruppi di lavoratori esposti a rischi particolari, tra cui anche quelli collegati allo stress lavoro-correlato’”. Inoltre, sempre il T.U.S.L. riporta all’art. 55, comma 1, lett. a, un riferimento alla valutazione di tale rischio.

Pertanto, se ipotizziamo di confrontarci con “l’insorgenza di problemi di salute mentale (come depressione reattiva, sindrome da stress post traumatico, nevrosi traumatiche, ecc.)” relativa a una persona che opera nella moderazione dei contenuti, “occorre innanzitutto interrogarsi sulla possibilità di accordare una tutela (anche) penale alla persona lavoratrice”.

Nel caso in cui, continua lo studio, una tale “disfunzione organizzativa comporti l’insorgenza di una patologia afferente all’integrità psicologica della persona lavoratrice, è possibile ipotizzare in capo al datore di lavoro una responsabilità penale colposa per omesso impedimento dell’evento lesivo, qualificando il mancato adempimento dell’obbligo di valutazione ed organizzazione come obbligo giuridico rilevante ex art. 40, cpv., c.p., che cita: “Nessuno può essere punito per un fatto preveduto dalla legge come reato, se l’evento dannoso o pericoloso, da cui dipende la esistenza del reato, non è conseguenza della sua azione od omissione. Non impedire un evento, che si ha l’obbligo giuridico di impedire, equivale a cagionarlo”.

Riguardo all’obbligo di valutazione del rischio il datore di lavoro, specifica il testo, in riferimento alla moderazione dei contenuti social, deve “certamente confrontarsi seriamente con i rischi psicosociali derivanti dalla peculiare mansione affidata alle persone lavoratrici come suggerito dall’art. 28 del d.lgs. n. 81 del 2008, potendo, viceversa, incappare in sanzione ai sensi dell’art. 55 dello stesso decreto”.

Riguardo a questo aspetto l’autrice dello studio ricorda che, oltre all’approfondimento specifico inquadrato dagli obblighi formativi, la normativa impone al datore di lavoro “di valutare accuratamente anche i rischi connessi alle differenze di genere. Ed infatti, nella valutazione del rischio afferente alla moderazione dei contenuti postati sui social media, occorrerebbe prestare una particolare attenzione alla vulnerabilità delle lavoratrici quantomeno rispetto al vaglio di immagini o video di violenze sessuali e pornografia non consensuale, le cui vittime sono nella stragrande maggioranza dei casi donne”.

Quindi, concludiamo anche in accordo con l’autrice del saggio, l’introduzione di sistemi di intelligenza artificiale nei luoghi di lavoro e l’interazione stessa con il digitale “possano produrre nuovi rischi per l’integrità psico-fisica delle persone lavoratrici”, perché è ramai innegabile che la digitalizzazione “implica una trasformazione dei processi produttivi e, quindi, un cambio di paradigma nell’organizzazione e nella materialità del lavoro”.

La via da seguire sembra, conclude il testo, “quella della contaminazione e dello scambio fra discipline, del trasferimento delle competenze alle realtà produttive, della democratizzazione del sapere nei luoghi di lavoro e della partecipazione di tutti i soggetti alle scelte in materia di sicurezza”. 

Scarica il documento da cui è tratto l’articolo:

Università di Urbino carlo Bo, Osservatorio Olympus, Diritto della Sicurezza sul lavoro: Sistemi di intelligenza artificiale autonomi e responsabilità datoriale- DSL 02/24

TAGS: 

No responses yet

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *