Vi racconto come Facebook combatte fake news e messaggi d'odio

Intervista a Aibhinn Kelleher, product policy manager per l'Europa del social più utilizzato nel mondo

Vi racconto come Facebook combatte fake news e messaggi d'odio

Probabilmente 13 anni fa Mark Zuckerberg, quando ebbe l’idea di creare Facebook , non immaginava che su quella piattaforma potessero finire contenuti di ogni genere. Oggi il problema è quanto mai evidente. E tra 'hate speech' (incitamenti all'odio) e 'fake news' (notizie bufala) il colosso digitale ha dovuto individuare delle regole precise e tali da arginare i contenuti più pericolosi. Aibhinn Kelleher, product policy manager di Facebook per l’Europa, il Medio Oriente e l’Africa, spiega ad Agi le difficoltà di scrivere queste regole, perché spesso i temi trattati sono molto delicati e non è mai facile capire il limite che non deve essere oltrepassato.

 

 

Da un'inchiesta condotta dal Guardian si capisce come non sempre sia facile per i dirigenti di Facebook trovare delle regole da applicare su temi delicati e difficili. Dall’altra, c’è l’enorme difficoltà dei moderatori, che sono sopraffatti dalla quantità di cose da analizzare e spesso costretti a prendere una decisione in 10 secondi. Come si 'sopravvive'?
"Le tematiche portate alla luce dal Guardian dimostrano quanto sia complesso il meccanismo di revisione dei contenuti e quante variabili siani da considerare per garantire la libertà d’espressione e la sicurezza dei nostri utenti. Mediamente, ogni giorno, più di un miliardo di persone usano Facebook. Vengono condivisi molti post in diverse lingue e vari formati, dalle foto ai live video. Una percentuale di questi contenuti viene segnalata e l’analisi è spesso complessa. Non è quindi facile definire regole che, allo stesso tempo, assicurino la sicurezza delle persone e consentano loro di condividere liberamente. A questo si deve aggiungere la difficoltà di dover rispondere rapidamente a milioni di segnalazioni settimanali".

Leggi su questo argomento il post di Riccardo Luna

Il Guardian ha anche dichiarato di aver preso visione di oltre 100 manuali di formazione, fogli di calcolo e diagrammi di flusso che hanno permesso di capire quali sono i principi attraverso i quali Facebook affronta le questioni più difficili. Come mai le policy non sono pubbliche?
"Il nostro obiettivo è creare policy che consentano di mantenere le persone al sicuro permettendo loro di esprimersi liberamente. Non condividiamo sempre i dettagli, perché non vogliamo aiutare le persone ad aggirarle, ma abbiamo reso pubblici i nostri standard della comunità che indicano ciò le linee guida che sta seguendo Facebook".

I revisori, hanno espresso molte perplessità su molte politiche aziendali relative ai contenuti. Le regole per i contenuti sessuali, per esempio, sono considerate molto complesse e confuse. Lei crede che ciò sia vero?
"I nostri standard della comunità variano nel tempo. Abbiamo un dialogo costante con esperti e organizzazioni locali, su una ampia varietà di temi, dalla sicurezza dei minori, al terrorismo, ai diritti umani. Ci sforziamo molto per rimanere obiettivi. I casi che esaminiamo non sono i più semplici: si collocano spesso in una zona grigia dove le persone non sono d'accordo. L'arte e la pornografia non sono sempre facilmente distinguibili, ma abbiamo scoperto che le immagini di nudo generate digitalmente sono più spesso di natura pornografica rispetto a quelle artigianali, e le nostre policy seguono questa strategia.I casi ipotetici che usiamo per formare i revisori sono intenzionalmente estremi. Sono ipotesi pensate per aiutare le persone che fanno questo lavoro ad affrontare i casi più difficili. Quando abbiamo creato i nostri standard della comunità quasi un decennio fa, molto è stato lasciato alla discrezione dei singoli dipendenti. Ma, poiché capita difficilmente che più persone abbiano la stessa opinione su cosa costituisca hate speech o bullismo, o altre tipologie di violazioni, abbiamo fatto evolvere le nostre policy verso definizioni chiare".

Siete soddisfatti del livello raggiunto in termini di starndard di controllo?
"Tutti noi sappiamo che possiamo fare molto di più. Il mese scorso, abbiamo annunciato che stiamo assumendo altri 3.000 revisori in tutto il mondo che si occuperanno di rivedere quello che viene segnalato dalle persone. E’ un lavoro impegnativo e continueremo a dare ai revisori il giusto supporto, sia facilitando la revisione più approfondita delle decisioni difficili in tempi brevi sia fornendo loro il supporto psicologico di cui hanno bisogno. La tecnologia offre, a un numero sempre crescente di persone, un potere maggiore di comunicare in modo più ampio che mai. Riteniamo che i vantaggi della condivisione superino i rischi. Ma riconosciamo anche che la società sta ancora cercando di capire cosa sia accettabile e cosa invece sia dannoso e che noi, in Facebook, possiamo svolgere una parte importante in quella conversazione".

Spesso su Facebook circolano molte notizie false. Cosa sta facendo l'azienda per arginare questo fenomeno? Cambieranno le policy dell’azienda? Se sì, come?
"Sappiamo che le persone vogliono vedere su Facebook informazioni corrette, e lo vogliamo anche noi. Le notizie false e le bufale sono pericolose per la nostra comunità e rendono il mondo un luogo meno informato. Tutti noi abbiamo la responsabilità di frenare la diffusione di notizie false. In Facebook ci siamo concentrati su tre aree chiave per contrastare il fenomeno: Interrompere le possibilità di guadagno, perché gran parte delle notizie false derivano dalla volontà di trarne profitto;  Costruire nuovi strumenti per frenare la diffusione di notizie false e migliorare la diversità di informazioni; Aiutare le persone a prendere decisioni in modo più consapevole, quando si trovano davanti a delle notizie false".

Può essere più precisa? In concreto cosa significa?
"Soprattutto per combattere le fake news abbiamo cercato di lavorare preventivamente con First Draft, un’associazione non profit dedicata a migliorare la capacità e la metodologia utilizzata per segnalare e condividere informazioni online. In questo modo abbiamo cercato di aiutare le persone a individuare le notizie false. In cima al News Feed di Facebook è stato infatti visibile per alcuni giorni agli utenti di 14 Paesi un decalogo utile per riconoscere le notizie false. In Italia il nostro partner in questo progetto è stato Fondazione Mondo Digitale. Cliccando sullo strumenti del News Feed, le persone accedevano all’interno del Centro Assistenza Facebook, dove sono presenti consigli su come individuare meglio notizie false, come ad esempio controllare l’URL del sito, investigare sulle fonti e cercare altre segnalazione sul tema. Stiamo inoltre lavorando con la Presidenza della Camera dei Deputati, il Ministero dell'istruzione, l'università e la ricerca e altri partner per sviluppare una campagna di sensibilizzazione e formazione specifica per l'Italia, "#bastabufale", partendo dalle scuole".

Hate speech e Counterspeech sono  strumenti che stanno crescendo sulla piattaforma. Cosa fa Facebook per eliminare l’hate speech e cosa, invece, per promuovere il counter speech?
Facebook non è un posto per la diffusione di discorsi di odio (hate speech), di razzismo o di appelli alla violenza. Per questo motivo abbiamo sviluppato gli “Standard della Comunità” che chiariscono quali contenuti non sono autorizzati sulla nostra piattaforma: sono le nostre policy. Inoltre, abbiamo  creato degli strumenti, intuitivi e facili da usare, che permettono agli utenti di segnalare contenuti che violano questi standard, includendo un link di segnalazione accanto a quasi ogni singolo contenuto presente sulla piattaforma. Valutiamo seriamente tutti i contenuti che ci vengono segnalati e diamo sempre un riscontro alle persone che segnalano un contenuto, fornendo aggiornamenti in tempo reale attraverso la casella del “Riepilogo delle Segnalazioni”. Imparando dagli esperti, continuiamo a perfezionare il modo in cui implementiamo le nostre policy per far sì che la nostra community possa essere al sicuro, soprattutto per le persone che possono essere vulnerabili o sotto attacco. Lavoriamo a stretto contatto con i nostri partner, come l’Ufficio Nazionale Antidiscriminazioni Razziali (UNAR), e le autorità locali per contrastare le situazioni non conformi alla legge italiana".

E' vero che avete di assumere nuovo personale per controllare i contenuti?
"Vero. Abbiamo inoltre recentemente annunciato che entro la fine del prossimo anno assumeremo 3500 persone, oltre alle 4000 già impiegate, per occuparsi della revisione dei contenuti segnalati. Oltre ad avere policy ben determinate e meccanismi di supporto, infine, crediamo sia altrettanto importante costruire e dare valore al “contro discorso” (counterspeech) per offrire narrative differenti e trasmettere messaggi positivi che sfidino i messaggi d’odio. Facebook è una piattaforma molto potente per la diffusione di counter-speech. Tutti quei contenuti (articoli, video, discorsi, commenti) che cercano di sfidare punti di vista estremi o violenti, raccontando e diffondendo messaggi positivi".

Qual è la parte più difficile del suo lavoro? 
"Facebook è una piattaforma globale, e come tale permette di confrontarsi continuamente con molteplici realtà locali, rapportarsi con le esigenze delle istituzioni, dialogare con interlocutori sempre diversi. Sicuramente questo è una sfida, ma anche un’occasione di apprendimento, scambio e crescita continuo".