Le bandierine rosse anti-bufale di Facebook si sono rivelate un fallimento clamoroso

Il social network ha deciso di ritirare lo strumento, che pareva sortire l'effetto contrario. In attesa che il Trust Project entri nel vivo

Le bandierine rosse anti-bufale di Facebook si sono rivelate un fallimento clamoroso

Chi ha più di trent'anni e ascolta heavy metal o gangsta rap ricorderà quando, sui dischi con liriche ritenute troppo crude, veniva applicato l'adesivo con la scritta "Parental advisory - Explicit lyrics". Ovvero, "avviso per i genitori: testi espliciti".

Fu l'esito della crociata condotta negli anni '80 da Tipper Gore, moglie del futuro vicepresidente degli Stati Uniti Al Gore e paladina di tutte le "mamme anti-rock". Le band coinvolte non facevano una piega, anzi. Quello sticker, lungi dall'essere un marchio di infamia, garantiva vendite più ricche.

Conseguenze inintenzionali simili sono sortite da uno degli strumenti che Facebook aveva impiegato, sotto la pressione dei governi nazionali, per combattere le bufale su internet: le bandierine rosse che corredavano gli articoli segnalati come fake news dai fact-checker reclutati dall'azienda per effettuare le opportune verifiche. Il risultato? Lungi dal distogliere gli utenti dalla lettura, la "bandierina rossa" sortiva l'effetto contrario: aumentare le condivisioni e i clic per i post marchiati. Per questo motivo, ha spiegato la product manager di Facebook Tessa Lyon, lo strumento verrà ritirato.

Perché la "red flag" non ha funzionato

In alternativa, sotto agli articoli controversi, appariranno link a pezzi sugli stessi argomenti provenienti da fonti ritenute più affidabili. A selezionarli saranno gli stessi fact-checker che finora si sono occupati di verificare le segnalazioni, gente che proviene da testate di pregio come Snopes, Politifact e National Review. L'obiettivo, spiega Lyon, è aiutare gli iscritti a costruirsi un contesto più solido.

"La ricerca accademica sulla correzione della disinformazione", invece, "ha dimostrato che mettere un'immagine forte, come una bandierina rossa, vicino a un articolo potrebbe invece rafforzare convinzioni profonde, l'effetto contrario di quello che volevamo raggiungere", conclude la product manager. In sostanza, l'utente "ideologizzato", vedendo un articolo segnalato come bufala, sarebbe ancora più invogliato a leggerlo, qualora rifletta la sua visione del mondo. Una tesi che non spiega però tutto. Lo strumento della "bandierina rossa" è stato sorretto sin dall'inizio da intuizioni così clamorosamente sbagliate da renderlo inefficace in partenza.

In primo luogo, la "bandierina rossa" non consentiva mezze misure. Un post poteva essere o "vero" o "falso". Invece tra una notizia impeccabile e una bufala c'è una zona grigia fatta di notizie parziali, urlate o distorte, per malafede o imperizia. Lo ha insegnato il caso di Diretta News, un sito italiano che proponeva notizie vere ma ne caricava i toni per puntare alla pancia del lettore. Dopo un post (non proprio accuratissimo) di denuncia di BuzzFeed, Facebook stesso ne cancellò il profilo social.

Un intervento che fece comprendere quanto fossero tutt'altro che immuni da falle gli strumenti di verifica del social network (che, così come per la valutazione dei post segnalati come offensivi, non possono contare sempre su personale in grado di valutare sfumature legate ai diversi contesti nazionali o culturali). Il processo di valutazione - sottolinea Quartz - era inoltre lento e farraginoso, richiedendo l'intervento di due fact-checker per post.

Ancora peggio calibrata si era poi rivelata la decisione di dare maggiore visibilità ai commenti contenenti la parola "fake". Basta seguire il profilo Twitter di Donald Trump per comprendere come chi scrive "FAKE" in caps lock sotto una notizia sia di solito animato da spirito di parte, non da amore per l'informazione corretta. Come ci ha insegnato la degenerazione del dibattito politico (in Italia e all'estero) sulla materia, le fake news sembrano sempre essere sempre quelle che arrivano dagli avversari.

Arriva il 'Trust Project'. Sarà la volta buona?

Facebook cercherà quindi di correre ai ripari allegando "articoli correlati" sotto a quelli ritenuti controversi. Chi cercherà di condividere una notizia sospetta, vedrà aprirsi un pop-up che suggerirà la lettura di contenuti ritenuti più credibili sullo stesso argomento. Ma leggerli o meno sarà una decisione che spetterà sempre a un utente che, magari chiuso nella sua "camera dell'eco", avrà già deciso in partenza se ritenere le fonti proposte di suo gradimento.

Bisogna inoltre chiedersi quante persone siano disposte a fidarsi di Facebook come arbitro del vero o del falso, a prescindere dagli strumenti che adotta. Un ruolo con il quale lo stesso Mark Zuckerberg non è a suo agio. Per questo lo scorso novembre ha lanciato il Trust Project, aprendo a una collaborazione più stretta con il giornalismo professionale i cui effetti si potranno valutare solo l'anno prossimo.

Ancora in fase di sperimentazione, il Trust Project è un consorzio di 75 testate giornalistiche americane ed europee (per l'Italia ci sono La Stampa e La Repubblica) che hanno elaborato otto “Indicatori di fiducia” - dalle fonti utilizzate all'indicazione della proprietà - in grado di consentire la valutazione della loro affidabilità. I media che li rispetteranno, vedranno un "trust mark" apparire vicino ai loro articoli. Uno sforzo inedito per l'educazione del lettore digitale che poggia su fondamenta decisamente più solide delle "bandierine rosse". Il problema di fondo, però, resta la sfiducia di parte dell'opinione pubblica nei confronti dei media tradizionali. E per superarla occorrerà molto di più dei "trust mark".

@CiccioRusso_Agi

 

 

 

 

 

 

 



Se avete correzioni, suggerimenti o commenti scrivete a dir@agi.it