Perché la battaglia delle fake news si può vincere solo con l’intelligenza artificiale
Il commento di Luca Serafini dopo le ultime bufale diventate virali in questi giorni: la sposa bambina di Padova e la presenza di Boschi e Boldrini al funerale di Riina
Gli ultimi due eclatanti casi afferenti a quel fenomeno giornalistico, antropologico e persino metafisico (perché connesso al tema della post-verità) che risponde al nome di fake news sono estremamente diversi tra loro, ma è proprio in questa diversità che rivelano i pericoli della contaminazione tra giornalismo e comunicazione veicolata dai social network.
Questa notizia puoi leggerla direttamente sul tuo Messenger di Facebook. Ecco come
Il riferimento è alla bufala sulla presenza di Maria Elena Boschi e Laura Boldrini al funerale di Totò Riina e a quella sulla sposa bambina violentata da un musulmano a Padova.
LEGGI ANCHE: Anche la storia che Maometto sposò una bambina è una bufala
È ormai risaputo che l’informazione si sta trasferendo in blocco sulle piattaforme social. Negli Stati Uniti, più del 60% della popolazione si informa principalmente attraverso Facebook, il cui news feed è una sorta di mega home page che contiene tutti gli articoli condivisi dai nostri amici (accuratamente indicizzati in base al nostro grado di vicinanza con loro), ampiamente miscelati con un profluvio di status sulla loro vita privata, e spesso talmente mischiati a questi da risultarne indistinguibili.
Come ha scritto Michele Mezza, giornalista e sociologo dei media, il giornalismo si sovrappone ormai al concetto stesso di “relazione sociale”.
Ecco spiegato l’effetto cascata per cui, venuto meno il filtro degli intermediari tradizionali, la panzana su Boschi e Boldrini al funerale di Totò Riina può ricevere migliaia di condivisioni ed essere presa per vera da frotte di internauti.
In questo caso la fonte primaria della “notizia” è appunto il profilo Facebook di un privato cittadino, il cui post sul social network, nell’indistinzione tra informazione e relazione umana, può assumere la medesima credibilità di un’inchiesta del New York Times.
I suoi contatti lo vedranno infatti apparire su un news feed di Facebook che viene percepito come esattamente sovrapponibile alla home page di un quotidiano, e sul quale quindi verranno applicati gli stessi procedimenti cognitivi.
Una notizia letta su Repubblica.it viene presa istintivamente per vera perché ci si fida di quell’intermediario, del ruolo che svolge nella verifica delle fonti, del suo status di organo qualificato e attendibile nel veicolare informazioni.
Ma se giornalismo e relazione umana arrivano a coincidere, questo stesso procedimento potrà essere messo all’opera quando si legge un post di un contatto Facebook presentato nella forma di una notizia, magari con un link che rimanda ad un articolo di un sito bufalaro.
Anche quell’amico verrà istintivamente percepito come un intermediario, seppur di secondo livello, di notizie attendibili, qualcuno che attraverso i suoi gusti e le sue opinioni ci porta a conoscenza di specifiche notizie in una modalità per giunta più leggera come quella dei social network. Anche la sua “notizia” verrà istintivamente presa per vera, magari condivisa, e potrà facilmente diventare virale.
Nel caso della bufala della sposa bambina violentata a Padova da un musulmano, però, la notizia è stata invece diffusa da un intermediario tradizionale, un giornale (Il Gazzettino) che è stato poi ripreso da molte altre testate nazionali.
Gli utenti dei social sono stati quindi, in questo caso, solo gli utilizzatori finali e i propalatori di una menzogna che, senza dolo ma per eccessiva leggerezza e scarsa verifica delle fonti, era stata messa in circolo da un quotidiano.
Per quanto, come è stato ricordato molte volte, le fake news abbiano una storia millenaria e non siano certo nate con i social network, è indiscutibile che il problema sia acuito proprio da questa sovrapposizione tra il giornalismo e il concetto di relazione sociale.
Così come gli utenti tendono a considerare il proprio news feed di Facebook come la home page di un sito, specularmente le testate online “socializzano” sempre di più i loro articoli.
LEGGI ANCHE: Perché le notizia false si chiamano bufale
Ma proprio perché sui social le persone si aspettano contenuti non solo ad alto tasso di intrattenimento, ma anche capaci di solleticare sentimenti a buon mercato come l’indignazione, ecco che il “giornalismo nella rete” può trasformarsi in una corsa selvaggia al click in cui le fake news rappresentano lo strumento più semplice e diretto per attirare lettori, pubblicità, in cui diventano cioè le più promettenti e prolifiche fonti di guadagno.
Proprio in questi giorni il sito BuzzFeed ha pubblicato un’inchiesta sulla fabbrica italiana delle bufale, una costellazione di siti internet e pagine Facebook tutte riconducibili alla società Web365.
Il meccanismo utilizzato da questa industria di fake news è molto semplice: titoli sensazionalistici, fatti realmente accaduti ritoccati quanto basta per scatenare la furia degli utenti ed attivare il clickbait.
Titoli come “La Merkel parla e gli immigrati hanno in mano la città”, che riprendono un discorso della Cancelliera sui rifugiati stravolgendone senso e contesto e soffiando sulla xenofobia e la rabbia sociale.
Ma soprattutto, un procedimento che si applica a tutti gli ambiti, dalla politica alla religione (con una pagina Facebook dall’emblematico titolo “La Luce di Maria”) fino alla rivelazione di cure miracolose per debellare le malattie (“Incredibile, 10 minuti e il tumore sparisce”).
Milioni di like, condivisioni, la pancia del paese che si attiva e quella dei proprietari che si riempie con i ricavi pubblicitari generati dalle visualizzazioni.
Luca Sofri ha evidenziato proprio la corresponsabilità di chi finanzia questo tipo di informazione: aziende come Mondadori, Volkswagen, Renault, Esselunga, Paypal, Iberia, Eni e molte altre sovvenzionano infatti alcuni dei siti di Web365, sfruttando l’alto grado di visibilità che questi offrono senza curarsi minimamente del tipo di informazioni che veicolano.
Pecunia non olet: se il sito bufalaro garantisce milioni di visualizzazioni, l’incasso val bene il pericolo di compromettere la qualità dell’informazione e quindi della democrazia.
Se buona parte parte del problema nasce dalla socializzazione dell’informazione, è evidente allora che parte della soluzione stia proprio nel modo in cui i colossi come Google e Facebook decidono di utilizzare gli strumenti a loro disposizione.
Come è noto, negli ultimi anni Mark Zuckerberg ha modificato il suo iniziale atteggiamento di completa deresponsabilizzazione rispetto al ruolo svolto da Facebook come agenzia editoriale e principale organo di informazione (sebbene non come produttore diretto) del globo.
Sono stati implementati diversi progetti, tra cui una sorta di fake news tool che in alcuni paesi segnala contenuti sospetti, una guida per gli utenti con dieci regole da seguire per informarsi correttamente, l’assunzione di centinaia di nuovi dipendenti che si occupano esclusivamente dell’individuazione e della rimozione delle fake news.
Lo scarso successo di queste iniziative dimostra però come il mare magnum di contenuti della rete non sia materiale gestibile e controllabile da una comunità di esseri umani.
La soluzione, o almeno il tentativo concreto di prendere di petto il problema, non può che avere a che fare con l’intelligenza artificiale, con il modo in cui vengono progettati gli algoritmi.
Google ci ha già provato attraverso lo sviluppo di un nuovo software chiamato Owl (gufo), un dispositivo che permette di chiedere la rimozione di un contenuto ritenuto fasullo spiegandone le motivazioni, e che nelle intenzioni di Mountain View dovrebbe riuscire, attraverso progressive migliorie, ad individuare i contenuti più attendibili premiandoli nell’algoritmo che stabilisce il posizionamento sul motore di ricerca.
Come ha scritto Paolo Bottazzini su Pagina99, il limite del meccanismo per come è stato pensato finora è che si regge in maniera eccessiva sulle segnalazioni degli utenti, ovvero proprio coloro i quali, a causa del loro scarso senso critico, rendono virali le notizie false e non sono in grado di valutare l’autorevolezza delle fonti.
Sarebbe quindi necessario un meccanismo che preveda un intervento umano minimo, un sistema di indicizzazione dei contenuti realmente in grado di discernere le notizie vere da quelle false e di rimuovere queste ultime con un ridottissimo margine di errore.
Sempre su Pagina99, sono stati presentati lo scorso agosto alcuni tentativi che vanno in questa direzione: un team di ricercatori della West Virginia University, ad esempio, ha sviluppato un software in grado di paragonare le fonti primarie delle notizie per verificarne la credibilità.
Una società che si occupa di frodi finanziarie chiamata DataVisor, ha testato un sistema di intelligenza artificiale in grado di scansionare una serie di elementi di un articolo, dal titolo al corpo del testo fino alla geolocalizzazione, svolgendo poi un controllo incrociato con tutti gli altri siti che si occupano dello stesso argomento.
E ancora, l’organizzazione Fake News Challenge, come riporta Paolo Bottazzini, ha rilasciato una piattaforma di intelligenza artificiale che “si focalizza sulla scansione del linguaggio naturale, verificando la concordanza o a contraddizione nell’esposizione dei fatti tra testate differenti”.
Ovviamente, i fini a cui l’essere umano può piegare l’intelligenza artificiale sono moltissimi. Da tempo gli algoritmi di Facebook e Google sono sotto accusa per aver creato il cosiddetto fenomeno delle “echo chambers” (camere dell’eco).
Poiché Facebook ci mostra in maniera prevalente i contenuti delle persone con cui interagiamo più frequentemente, e Google quelli in linea con i siti che visitiamo più spesso, è molto facile finire rinchiusi in una bolla in cui si scambiano relazioni e informazioni solo con chi già la pensa come noi e in cui ci vengono proposti contenuti che non si discostano mai dalle nostre opinioni di partenza.
Dal punto di vista delle fake news, un utilizzo potenzialmente nocivo dell’intelligenza artificiale è rappresentato ad esempio da un software rilasciato la scorsa estate dalla Stanford University e chiamato Face2Face.
Questo programma è in grado di scansionare il labiale di una personaggio pubblico che sta tenendo un discorso mettendogli letteralmente in bocca delle parole diverse da quelle che sta pronunciando, senza che l’effetto appaia visibile allo spettatore.
Un vero e proprio doppiaggio che funziona anche real time, e che potrebbe portare, ad esempio, alla diffusione su un sito bufalaro di un video di Renzi che afferma di fregarsene dei disoccupati, mentre in realtà sta parlando della posizione del Pd sulla legge elettorale.
Il video, grazie al livello di sofisticatezza del software, potrebbe apparire da un punto di vista visivo totalmente verosimile, e c’è da giurare che diventerebbe immediatamente virale.
La questione delle fake news ha quindi molto a che fare con la piega che i colossi del web vorranno far prendere all’intelligenza artificiale, con il modo in cui vorranno innovare.
Bisognerà vedere se nella progettazione dei software riusciranno a riconoscere la loro importanza come aziende editoriali e principali fornitori mondiali di informazioni, con tutte le ricadute che questo ha sulla qualità e la tenuta delle democrazie, o se faranno prevalere una logica meramente commerciale.
Nel secondo caso, come visto, ci sarebbero mille modi per fomentare la corsa al clickbait ingrossando le tasche dei propalatori seriali di bufale.
Se il giornalismo coincide col concetto di relazione sociale, è allora nell’uso della tecnologia da parte delle principali agenzie di socializzazione del terzo millennio che si gioca, tra le altre cose, anche la partita delle fake news.