Che Facebook possa avere un ruolo potenzialmente nefasto per le democrazie occidentali è una verità a cui, più che abituati, siamo ormai assuefatti.
Le fabbriche di troll e fake news che dalla Russia interferiscono sulle campagne elettorali inquinando il dibattito pubblico, o lo smercio illegale di dati culminato nello scandalo Cambridge Analytica, hanno ampiamente dimostrato come il social di Zuckerberg non sia in grado di controllare le conseguenze dei processi che ha innescato.
Negli ultimi mesi, però, è cresciuto esponenzialmente anche l’allarme per i danni causati da Facebook in alcuni stati asiatici, e in particolare in paesi con una scarsa alfabetizzazione digitale e in cui la democrazia è già di per sé estremamente fragile se non inesistente.
Due esempi in particolare aiutano a comprendere come poteri autocratici e spietati abbiano utilizzato Facebook per legittimarsi e perpetrare persecuzioni o addirittura genocidi contro oppositori e minoranze etniche.
In entrambi i casi, ciò è avvenuto sfruttando l’impreparazione del social di Zuckerberg rispetto alle dinamiche culturali, tecnologiche e politiche di stati non occidentali e, come si diceva, a bassissimo coefficiente democratico.
Lo scorso marzo, un report delle Nazioni Unite ha affermato che Facebook ha avuto un “ruolo determinante” in Myanmar nel fomentare l’odio nei confronti dei rohingya, la minoranza musulmana oggetto di persecuzioni da parte del governo e dell’esercito birmano che si sono inasprite a partire dall’agosto del 2017.
Da allora, le violenze hanno costretto oltre mezzo milione di rohingya a fuggire dal Myanmar attraversando il confine con il Bangladesh.
Un altro report dell’Onu, pubblicato lo scorso 27 agosto, ha chiesto alla giustizia internazionale di indagare per genocidio e crimini contro l’umanità il capo dell’esercito del Myanmar e altri cinque alti comandanti militari.
Cosa c’entra Facebook con tutto questo? Un’inchiesta della BBC ha spiegato come fino a cinque anni fa, in Myanmar, l’accesso a Internet fosse estremamente limitato. Con la liberazione di Aung San Suu Kyi e la sua elezione come leader de facto del paese, però, il governo ha dato il via alla liberalizzazione di diversi settori dell’economia, tra cui quello delle telecomunicazioni.
Milioni di birmani hanno avuto per la prima volta accesso a Internet, e il loro primo approccio con la rete ha coinciso in tutto e per tutto con l’utilizzo di Facebook, poiché Google e altri giganti del web non avevano ancora inserito il birmano tra le lingue in cui era possibile utilizzare i loro servizi, cosa che invece Facebook aveva fatto.
Proprio la scarsa alfabetizzazione digitale, però, ha fatto sì che i nuovi utenti fossero privi di strumenti per difendersi dalla disinformazione e dalla propaganda.
Il risultato è stato una proliferazione di post denigratori e incendiari contro i rohingya, che il social di Zuckerberg ha reso presto virali.
Lo scorso agosto, un’indagine della Reuters ha scovato oltre mille post, commenti o immagini pornografiche che circolavano sulla versione birmana di Facebook e che prendevano di mira i rohingya: si andava da meme che li equiparavano a cani e maiali fino a post-bufala che spiegavano come fossero tutti terroristi.
Molti di questi contenuti violavano palesemente gli le linee guida della community di Facebook, le regole che dettano ciò che è consentito pubblicare sulla piattaforma e ciò che non lo è.
Il social di Zuckerberg, però, ha cominciato a rimuoverli solo in seguito a segnalazioni pervenute da organizzazioni per la difesa dei diritti umani e inchieste come quella di Reuters.
Per anni, insomma, quei meme, quelle bufale e quel materiale discriminatorio non solo erano presenti sulla piattaforma, ma si sono diffusi in maniera rapidissima e incontrollata contribuendo al processo di “de-umanizzazione” dei rohingya.
Perché Facebook è rimasta immobile? Come spiega l’inchiesta della BBC, il social di Zuckerberg era culturalmente (ma anche tecnologicamente) impreparato per impiantarsi in uno scenario dominato da tensioni etniche e religiose come quello del Myanmar.
Per prima cosa, alcune parole birmane fortemente dispregiative nei confronti dei musulmani, avendo anche un secondo significato più “innocente”, non venivano individuate dagli algoritmi e, di conseguenza, i relativi post non diventavano oggetto di segnalazione e rimozione.
Molti utenti birmani, inoltre, trovavano difficile comprendere le istruzioni rilasciate da Facebook per la segnalazione di post discriminatori.
Ma soprattutto, la compagnia aveva nel suo organico pochissimi impiegati di lingua birmana deputati a controllare i post, addirittura uno solo nel 2014 e tre l’anno successivo.
Facebook, negli ultimi anni, ha cercato di colmare queste lacune, assumendo nuovi dipendenti birmani e raffinando progressivamente i suoi strumenti tecnologici.
Il danno però, nel frattempo, era già stato fatto, con i post incendiari contro i rohingya che, anche grazie alle impostazioni degli algoritmi del social, che premiano contenuti ad alto tasso di eccitabilità, diventavano facilmente virali senza incorrere in alcun controllo.
La stessa compagnia ha ammesso che in Myanmar le operazioni di contrasto alla disinformazione e ai contenuti d’odio sono state troppo lente, e lo stesso Zuckerberg, nell’audizione dello scorso aprile di fronte al Congresso degli Stati Uniti, ha provato a salvare la faccia snocciolando tutte le misure (tardivamente) intraprese per aumentare i controlli e fermare l’ondata di hate speech nei confronti dei rohingya.
La vicenda del Myanmar, in quell’area, non è comunque isolata.
Un lungo reportage di BuzzFeed ha messo in luce come le Filippine siano un caso di scuola dell’eterogenesi dei fini a cui è andato incontro Facebook: nato con l’intento di favorire connessioni e trasparenza, il social, con la sua rapidissima penetrazione in società democraticamente e tecnologicamente poco avanzate, ha finito per servire gli scopi di autocrati come il presidente filippino Rodrigo Duterte.
Quest’ultimo, infatti, ha compreso immediatamente il potenziale del social network, e lo ha utilizzato per occultare le ripetute violazioni di diritti umani e civili connesse in particolare alla sua guerra al narcotraffico.
Il primo passo, anche qui, è stato quello di far coincidere l’accesso alla rete per i cittadini con l’arrivo di Facebook, tagliando fuori gli altri principali concorrenti.
Facebook ha “occupato” tutti gli spazi disponibili sul mercato filippino, e Duterte ha occupato tutti gli spazi disponibili su Facebook con una macchina propagandistica priva di competitor.
Il popolo filippino, culturalmente non attrezzato e privo di difese critiche nei confronti della propaganda e delle fake news, dall’elezione di Duterte (giugno 2016) è stato quindi bombardato di post apologetici sul presidente o tesi a nascondere i crimini e le migliaia di esecuzioni extragiudiziali che hanno colpito, tra gli altri, trafficanti e consumatori (veri o presunti) di droga.
Sebbene Human Rights Watch abbia definito Duterte “una sciagura”, grazie a Facebook il governo filippino ha potuto costruire una narrazione alternativa, in cui le accuse contro il presidente vengono continuamente spacciate per complotti dei suoi oppositori.
Nell’agosto del 2016 la senatrice Leila de Lima, impegnata nel denunciare i crimini dell’esecutivo, è stata arrestata dopo che su Facebook erano circolate una serie di bufale che la riguardavano. Tutto era cominciato con delle foto erotiche, accuratamente ritoccate, in cui una donna a lei somigliante faceva sesso in macchina con l’autista.
Le foto provenivano da un sito porno e non avevano nulla a che fare con de Lima, ma la macchina del fango ormai si era attivata: la senatrice venne accusata a vario titolo di aver accettato tangenti da spacciatori di droga, utilizzando l’autista con cui aveva fatto sesso come corriere, e finì in galera.
Facebook, in seguito, ha rimosso quei contenuti fasulli, ma ciò non ha avuto alcun effetto sulla sorte della senatrice, che è rimasta in carcere.
Pompee La Viña, uno dei social media manager di Duterte, ha spiegato a BuzzFeed che lo stile comunicativo del presidente si adatta perfettamente alle modalità con cui i messaggi vengono veicolati da Facebook: è un personaggio le cui frasi e i cui atteggiamenti si prestano bene ad essere tradotti in meme, viene spesso photoshoppato come fosse un’icona della cultura pop, le sua affermazioni a effetto hanno un impatto immediato e suscitano sentimenti come rabbia e indignazione.
“Duterte è semplicemente perfetto per Facebook”, ha concluso trionfante La Viña.
Le Filippine, a causa della scarsa diffusione dei media tradizionali, sono un esempio paradigmatico di quello che può accadere in una nazione in cui le persone si informano quasi esclusivamente attraverso Facebook.
Le notizie, oltre ad essere oggetto di continue manipolazioni, si diffondono nelle modalità “leggere” tipiche della piattaforma.
Ecco allora che a contribuire al successo di Duterte ci sono anche alcuni popolarissimi influencer: si va dalla popstar Mocha Uson, che seguiva il presidente durante la campagna elettorale inscenando spesso un balletto chiamato “Duterte Dance”, e che oggi lavora nel suo staff della comunicazione, a RJ Nieto, una sorta di Alex Jones filippino, un blogger seguito da milioni di persone e propalatore seriale di teorie cospirazioniste e fake news sugli oppositori politici del presidente.
Sono tutte figure ponte che contribuiscono a rendere ulteriormente “pop” la figura di Duterte, in un contesto in cui l’informazione, venendo veicolata quasi solo tramite Facebook, coincide essa stessa con la cultura popolare e con le modalità social di interazione tra gli utenti.
In Occidente ci si chiede spesso se Facebook sia una piattaforma che, per il modo in cui è strutturata, tenda “di default” a favorire i partiti populisti, nonché a intaccare il corretto funzionamento della democrazia inquinando il dibattito pubblico.
Che si tratti di preoccupazioni tutt’altro che peregrine lo dimostra proprio l'”orientalismo” del social di Zuckerberg, ovvero gli effetti della sua penetrazione in società i cui argini all’autoritarismo sono assai più fragili rispetto all’Europa o agli Stati Uniti.
Leggi l'articolo originale su TPI.it