“Facebook favorisce la violenza etnica in Etiopia, non rimuove i discorsi d’odio”
Facebook è di nuovo al centro delle polemiche. Come accaduto pochi anni fa in Nigeria e in Myanmar, il social di Mark Zuckerberg starebbe infatti contribuendo ad alimentare tensione e violenze etniche in Etiopia, secondo quanto riportato da un’inchiesta del Bureau of Investigative Journalism (TBIJ) e dell’Observer.
Il copione ormai lo conosciamo, perché si ripete ciclicamente (e tristemente) nei Paesi in cui Facebook, per impreparazione culturale o mancanza di adeguati investimenti, non riesce a portare avanti un’adeguata moderazione dei contenuti, permettendo così a fake news e discorsi d’odio di proliferare. Fake news e discorsi d’odio che, in contesti particolarmente a rischio, dove sono in corso violenti conflitti etnici, possono provocare danni enormi.
Nello specifico, il report del TBIJ e dell’Observer afferma che Facebook, nonostante sia consapevole delle sue falle nella moderazione dei contenuti e dei rischi che può provocare in Etiopia, non stia facendo abbastanza per risolvere la situazione. Nell’inchiesta vengono citate diverse fonti, tra cui cittadini etiopi che hanno collegato la morte di parenti o persone a loro care a discorsi d’odio lasciati circolare impunemente sul social di Zuckerberg. Ma ad intervenire sono stati anche numerosi fact-checkers, attivisti per i diritti umani e organizzazioni della società civile: tutti concordi nel giudicare insufficiente l’azione di contrasto di Facebook alla diffusione di contenuti incendiari.
Come riporta il The Guardian, Rehobot Ayalew, dell’organizzazione di fact-checking etiope HaqCheck, ha dichiarato: “La maggior parte delle persone in Etiopia è scarsamente alfabetizzata dal punto di vista mediatico e digitale, motivo per cui i contenuti che circolano su Facebook sono considerati credibili. Come fact-checkers ci imbattiamo continuamente in immagini violente, discorsi d’odio. La piattaforma potrebbe fare molto di più per contrastare questo tipo di contenuti, invece ne permette la circolazione”.
Meta ha rigettato queste accuse, affermando di essersi mossa in maniera attenta e di aver fatto diversi investimenti in Etiopia per fermare la diffusione della disinformazione.
L’Etiopia è un paese che attraversa da sempre forti tensioni etniche. Si tratta infatti di una nazione di 115 milioni di abitanti, composta da oltre 80 etnie diverse. Il gruppo etnico prevalente è quello degli oromo, che costituisce circa il 34 per cento della popolazione: a seguire ci sono gli amhara (27 per cento), i somali e i tigrini (6 per cento). Quest’ultima etnia è quella che abita in prevalenza la regione del Tigray.
Ed è proprio in questa regione che dal novembre del 2020 è in corso un violento scontro tra il Fronte Popolare di Liberazione del Tigray e il Governo Federale Etiope del primo ministro Abiy Ahmed. Quest’ultimo è stato insignito del Nobel per la pace per le sue iniziative volte a risolvere il conflitto tra Etiopia ed Eritrea, ma non è riuscito a fare altrettanto in Tigray ed è anzi stato messo sotto accusa per alcune violente azioni dell’esercito governativo, come il bombardamento del giugno 2021 nel mercato di un villaggio a 25 chilometri da Mekelle, capoluogo del Tigray, costato la vita a decine di civili.
In un contesto così esplosivo, la circolazione di materiale incendiario sui social network può evidentemente contribuire ad alimentare tensioni e violenze.
Tra i casi citati nel report del Bureau of Investigative Journalism e dell’Observer c’è quello di Gebremichael Teweldmedhin, un gioielliere tigrino rapito tre mesi fa a Gonder, una città nella regione dell’Amhara. Un suo parente ha dichiarato che a contribuire alla sua sparizione e a quella di altre persone sarebbero state “le campagne d’odio diffuse sui social media”. Questo perché, sempre secondo la testimonianza, in molti post incendiari verrebbero esplicitamente pubblicati nominativi e foto di persone. Nell’inchiesta viene citato in particolare un utente di Facebook, Solomon Bogale, attivista online con oltre 86mila follower. Sui suoi profili social comparirebbero diversi post che incitano alla violenza. In uno di questi, viene chiesto agli abitanti della regione di Amhara di “ripulire” il loro territorio dalle forze tigrine. Secondo il TBIJ, il post non sarebbe stato rimosso da Facebook dopo oltre quattro mesi dalla sua pubblicazione, anche se Meta nega la circostanza.
Il tema dell’inazione di Facebook, anche a fronte della consapevolezza dei danni provocati dalla circolazione della disinformazione, era emerso con forza anche a seguito delle rivelazioni della ex product manager Frances Haugen. La diffusione dei documenti interni all’azienda aveva infatti messo in luce la sostanziale indifferenza dei dirigenti di Meta (Zuckerberg in primis) per gli effetti della piattaforma sulla salute mentale degli adolescenti, l’aumento della polarizzazione politica, il sostanziale inquinamento del dibattito pubblico (attraverso la promozione di contenuti divisivi, che suscitano rabbia e indignazione).
Nel caso dell’Etiopia, inoltre, alcuni di questi documenti mostrano come Meta fosse consapevole da tempo della situazione estremamente pericolosa nel Paese: la conferma di ciò è che nel gennaio 2019 un report interno aveva valutato la situazione in Etiopia come “grave”, inserendo il Paese nella seconda categoria di rischio più alta. Un anno dopo, come rivela un altro report interno, l’Etiopia era invece salita in cima alla lista dei Paesi di Facebook in cui doveva agire, a causa dell’inasprirsi delle tensioni.
Come detto, quello etiope non è il primo caso che ha palesato la responsabilità di Facebook nell’alimentare la disinformazione e i discorsi d’odio in contesti in cui l’azienda non è sufficientemente preparata a intervenire, anche a causa di gap di natura culturale e linguistica.
Come è ormai noto, nel marzo del 2018 un report delle Nazioni Unite ha affermato che Facebook ha avuto un “ruolo determinante” in Myanmar nel fomentare l’odio nei confronti dei rohingya, la minoranza musulmana oggetto di persecuzioni da parte del governo e dell’esercito birmano che si sono inasprite a partire dall’agosto del 2017. All’epoca, un’indagine di Reuters aveva scovato oltre mille post, commenti o immagini pornografiche che circolavano sulla versione birmana di Facebook e che prendevano di mira i rohingya: si andava da meme che li equiparavano a cani e maiali fino a post-bufala che spiegavano come fossero tutti terroristi. Molti di questi contenuti violavano palesemente gli le linee guida della community di Facebook, ma erano stati rimossi molto tardivamente.
Sempre nel 2018, un’inchiesta della BBC aveva messo in luce il ruolo avuto da Facebook negli scontri interetnici e interreligiosi in Nigeria: l’odio alimentato dalle bufale che il social non riusciva a rimuovere aveva infatti portato a scontri, rivolte e persino a omicidi di massa.