Il duro lavoro dei moderatori di Facebook: i devastanti effetti sulla psiche dei dipendenti
Ogni giorno il loro compito è quello di analizzare e valutare contenuti. Sono perennemente a contatto con testi volgari o insulti, frasi intrise di odio e spesso immagini sconce e volgari. È il duro lavoro dei moderatori di Facebook. Scrutare, vagliare, selezionare quotidianamente cosa lasciar passare sul social network più conosciuto al mondo e cosa no.
Tramite un’inchiesta, il quotidiano britannico Guardian ha intervistato un gruppo di dipendenti che per anni ha lavorato nei centri di moderazione del social network nella sede centrale di Berlino.
Ai lavoratori viene chiesto di lavorare velocemente e di lavorare bene. Per otto ore al giorno devono scrutare in pochi minuti numerosi contenuti grafici pieni di violenza, immagini di nudo e spesso episodi di bullismo. I turni includono pure l’orario notturno e i week end.
I lavoratori sono costretti a parlare in anonimo perché hanno firmato con Facebook accordi di non divulgazione.
Agghiaccianti, secondo alcuni dipendenti, sono le chat private tra adulti e minori, che i moderatori si sono trovati ad analizzare perché un algoritmo le aveva contrassegnate come probabili contenitori di elementi a sfruttamento sessuale.
In gran parte delle conversazioni – definite “inquietanti” dai moderatori – la dinamica è sempre la stessa: ricchi uomini bianchi (dall’Europa o dagli Stati Uniti) scrivono a bambini delle Filippine cercando di ottenere foto sessuali in cambio di pochi dollari.
I dipendenti sono consapevoli di far parte di un team di un lavoro nuovo, ancora in fase sperimentale. L’obiettivo di per sé è nobile: proteggere gli utenti del colosso ideato da Mark Zuckerberg da maltrattamenti, odio e pregiudizi razziale. Ma è importante anche tutelare i lavoratori, il cui compito è quello di fare da “cuscinetto” fra i singoli utenti e il social.
Gli effetti del lavoro sui moderatori a volte è devastante: un dipendente ha raccontato di aver beccato un collega a comprare on line un Taser, perché si sentiva sempre più spaventato, preoccupato di camminare per strada di notte e di essere circondato da persone straniere.
Alcuni di loro hanno anche detto che l’odio che quotidianamente si trovano a fronteggiare influenza anche la loro ideologia politica. Molti di loro si sono accorti di aver assunto ideali più conservatori.
I moderatori di Facebook sono consapevoli che molti dei contenuti d’odio divulgati e con cui hanno a che fare quotidianamente sono notizie false che mirano a condividere opinioni politiche molto particolari.
A febbraio, il sito The Verge aveva già condotto un’inchiesta simile negli Stati Uniti, producendo uno dei primi report del “dietro le quinte” di Facebook.
I risultati erano molto simili a quelli ricavati nell’indagine a Berlino: anche gli americani avevano riferito che i video e i meme che vedevano ogni giorno li portavano gradualmente ad abbracciare visioni più estremiste e che un ex moderatore dormiva con una pistola al suo fianco dopo essere stato traumatizzato da un video di un accoltellamento.
Altri moderatori statunitensi si erano dati a droghe e alcol, così come quelli in Germania. I moderatori americani si erano lamentati dell’aiuto psicologico che è stato a loro fornito.
I consulenti che avrebbero dovuto fornire supporto in loco erano in gran parte passivi. Lo stesso è accaduto a Berlino, dove i servizi di consulenza psicologica hanno suggerito di rivolgersi all’assistenza sanitaria statale.
“Alcuni colleghi andavano dal consulente e quando hanno dimostrato di avere problemi reali, sono stati invitati a trovare uno psicologo adeguato al di fuori dell’azienda” hanno detto i dipendenti di Berlino.
“Dobbiamo condividere le nostre storie, perché le persone non sanno nulla di noi, del nostro lavoro, di ciò che facciamo per guadagnarci da vivere”, hanno i dipendenti di Facebook della sede di Berlino al Guardian.
Facebook, dopo il report pubblicato da Verge, sembrava aver preso provvedimenti a tutela dei suoi dipendenti. Ma l’odio sui social resta una piaga difficile da arginare.
Leggi l'articolo originale su TPI.it