WhatsApp ha un grosso problema con la pedopornografia
L'app controllata da Facebook non riesce a fornire un numero sufficiente di moderatori per stroncare il fenomeno
Le chat di gruppo di WhatsApp vengono utilizzate per diffondere materiale pedopornografico, grazie alla crittografia end-to-end dell’app. L’assenza di moderatori “umani” permette al fenomeno di svilupparsi indisturbato. Un rapporto di due organizzazioni non governative israeliane pubblicato da TechCrunch spiega come alcune app permettano di scoprire quei gruppi WhatsApp con sezioni “per adulti” in cui girano dei link per invitare soggetti disposti a scambiare immagini e video pedopornografici.
Molti di questi gruppi sono attualmente attivi. L’indagine condotta da TechCrunch evidenzia come Facebook potrebbe fare di più per bloccare il fenomeno su WhatsApp, rimuovendo questo tipo di contenuti. Anche senza indebolire la crittografia, i moderatori di WhatsApp dovrebbero essere in grado di trovare questi gruppi e chiuderli.
Sull’app esistono dei gruppi che non tentano nemmeno di nascondere la loro natura: “Solo pedopornografia” e “video porno di bambini” sono solo alcuni dei gruppi trovati sull’app di messaggistica di Facebook. WhatsApp dovrebbe farsi carico di un’indagine approfondita che miri a cancellare immediatamente questo tipo di gruppi. Invece sembra che da parte dell’azienda non ci sia molta attenzione al fenomeno in questione.
Mentre Facebook è particolarmente impegnato nel contrasto alle interferenze elettorali, al bullismo e ad altre violazioni di diritti e norme – addirittura arrivando a raddoppiare il numero di dipendenti impiegati nell’operazione, da 10mila a 20mila – non ha operato alcun provvedimento nei confronti del problema della pedopornografia su WhatsApp.
Con soli 300 dipendenti, WhatsApp funziona in modo semi indipendente e la società conferma lo sforzo di moderare i contenuti sulla piattaforma. Evidentemente in modo inadeguato per una community che conta 1,5 miliardi di utenti.
Le indagini portate avanti dalle ong Screen Savers e Netivei Reshesono state pubblicate in un report parzialmente diffuso anche dal Financial Times. Il sito TechCrunch sta rendendo noti anche ulteriori dettagli, come le risposte arrivate dal colosso Facebook, ma anche i nomi dei gruppi in cui è stato registrato lo scambio di materiale pedopornografico.
Secondo la startup AntiToxin Technologies che ha condotto ricerche sull’argomento, sarebbero stati identificati oltre 1.300 video e fotografie di minori ripresi durante atti sessuali su gruppi WhatsApp. Ci sono già dei precedenti di pedopornografia sui social: basti pensare a Tumbl. Sull’app giravano, infatti, foto e video di materiale pedopornografico e per questa motivazione è stata rimossa temporaneamente dall’App Store. Perché ancora non è accaduta la stessa cosa per WhatsApp?
Nel luglio 2018, le ong sono venute a conoscenza del problema dopo che un utente ha denunciato uno dei gruppi di scambio del materiale su WhatsApp. Le ong hanno avviato la loro indagine, scoprendo diverse chat incriminate. Per ben quattro volte ne hanno chiesto conto al responsabile della politica di Facebook, Jordana Cutler, ma nessuna risposta è arrivata dai piani alti dell’azienda. Anzi, Cutler ha chiesto che gli venissero consegnate le prove. Le ong si sono rifiutate, ma hanno contattato la polizia israeliana.
Solo WhatsApp ha ricevuto i dettagli delle chat e assicura che collaborerà alle indagini della polizia per stroncare il fenomeno. “WhatsApp ha una politica di tolleranza zero nei confronti degli abusi sessuali su minori. Implementiamo la nostra tecnologia più avanzata, compresa l’intelligenza artificiale, per scansionare le foto e le immagini del profilo nei contenuti segnalati, e vietare attivamente gli account sospettati di condividere questo vile contenuto. Rispondiamo inoltre alle richieste di applicazione della legge in tutto il mondo e segnaliamo immediatamente l’abuso al Centro nazionale per i bambini scomparsi e sfruttati. Sia gli app store che i servizi di comunicazione vengono utilizzati in modo improprio per diffondere contenuti offensivi, ma le aziende tecnologiche devono collaborare per fermarlo”, ha dichiarato l’azienda in una nota.
WhatsApp probabilmente non ha stanziato risorse sufficienti per monitorare i gruppi. Come accade con il concorrente Telegram, che, però, riesce a gestire la situazione. I gruppi (di estranei) nascono per raccogliere utenti attorno a temi specifici, dallo sport all’intrattenimento, ma è chiara la degenerazione in quelle che rientrano nelle sezioni “per adulti”, in cui appaiono link di invito a gruppi di condivisione della pornografia legale e di quella minorile, illegale.
WhatsApp ha fatto sapere di mettere in pratica alcune tecniche di controllo (come il limite dei membri dei gruppi a 256 utenti o la scansione delle foto sospette, con la successiva chiusura dei gruppi) e di aver chiuso molte di queste chat. Un lavoro a metà, visto che l’indagine delle ong e quelle di TechCrunch hanno dimostrato l’esistenza di numerosi gruppi ancora attivi. Dunque i sistemi automatizzati e il basso numero di dipendenti di WhatsApp non sono sufficienti per impedire la diffusione di immagini illegali.
Il problema solleva anche la questione crittografia. È davvero necessaria? Mentre si cerca di capirne l’utilità, sarebbe il caso che WhatsApp aumentasse il numero di soggetti “umani” impegnati nel contrasto al fenomeno, visto che gli utili a nove zeri dell’azienda lo permettono. Le aziende tecnologiche come WhatsApp dovrebbero smettere di pensare che siano sufficienti soluzioni tecnologiche economiche. Se vogliono fare soldi con enormi basi di utenti, devono essere disposti a pagare per proteggerli e controllarli.