La strage di Christchurch e l'ennesima conferma dei limiti dei social network

La trasmissione in diretta Facebook della strage di musulmani avvenuta in Nuova Zelanda dimostra come le piattaforme tecnologiche non siano ancora in grado di vigilare a sufficienza sui contenuti che pubblicano

video strage christchurch facebook
Handout / Afp
Brenton Tarrant

Cinquanta morti in diretta Facebook. Il massacro di Christchurch ha ribadito una cosa: le piattaforme tecnologiche, pur migliorando, non sono ancora in grado di controllare con efficacia i contenuti che pubblicano. La discussione, dai suicidi live alla propaganda dell'Isis, non si è mai sopita. Questa volta però porta con sé anche un altro dubbio: i social network sono più morbidi con l'estrema destra che con la propaganda islamista? E se sì, per quale motivo?

Un video su cinque ha bucato Facebook

“La polizia ci ha avvisato di un video poco dopo l'inizio della diretta – ha spiegato Facebook Nuova Zelanda il 15 marzo - e abbiamo rimosso rapidamente gli account Facebook e Instagram che lo avevano pubblicato”. Individuare un video non è semplice, impedire nell'immediato la sua proliferazione praticamente impossibile. Facebook ha rimosso 1,5 milioni di filmati nelle 24 ore successive alla strage. Tanti. Allo stesso tempo, il social ha agito per “rimuovere qualsiasi elogio o supporto alla strage, non appena ne veniamo a conoscenza”.

Leggi anche: Vi dò una notizia: il terrorismo non l'ha creato Internet

Nello stesso tweet, la società sottolinea però un'altra cosa: “Oltre 1,2 milioni di video sono stati bloccati durante l'upload”. È stato cioè impedito agli utenti di caricarli e – di conseguenza – le clip non hanno raccolto alcuna visualizzazione. Le cifre, diffuse da Facebook per sottolineano i suoi sforzi, evidenziano in realtà una crepa. Guardando il negativo di questi dati, ci sono stati circa 300.000 video che, nonostante includessero le immagini di una strage, hanno superato la prima barriera di controllo e sono stati pubblicati sul social network. Almeno un video su cinque ha bucato Facebook prima di essere oscurato.

Il controllo impossibile sulle dirette

Il problema del controllo preventivo non riguarda solo Facebook. Twitter ha rimosso alcuni account legati al video originale. Reddit ha bandito alcuni canali di discussione (r/watchpeopledie e r/gore) che inneggiavano alla strage. YouTube ha confermato il suo impegno “per rimuovere qualsiasi filmato violento”. La piattaforma di Google sta utilizzando un sistema simile a quello messo a punto per proteggere il diritto d'autore.

Il riconoscimento automatico individua i tentativi di ricaricare video già banditi. Tuttavia, l'algoritmo non può essere utilizzato per oscurare le versioni modificate, tagliate e montate del massacro di Christchurch. Un accorgimento dovuto alla necessità di pubblicare materiale informativo che potrebbe includere alcuni fotogrammi della ripresa in soggettiva della strage. In questi casi, la tecnologia segnala la presenza del video. Che resta online fino alla revisione di un gruppo “umano”.

Il percorso apre però alcune brecce nel sistema di controllo, come ha dimostrato il giornalista della Nbc Jason Abbruzzese: utilizzando una chiave di ricerca semplice e generica (“livestream nz”), ha rintracciato decine di video della strage a diverse ore dal massacro. Rasty Turek, ceo di Pex, una piattaforma di videoanalisi, ha spiegato a TheVerge che “oggi nessuno su questo pianeta può risolvere i problemi dei video in diretta”.

Una questione (anche) economica

Il tema però non è solo tecnologico, ma anche economico e politico. Come osserva Vox, l'azione delle grandi piattaforme contro l'estrema destra (e più in generale contri contenuti nocivi) avrebbe diverse falle. Su forte impulso di alcune personalità della politica e della cultura americane, si è concentrata censurando alcuni leader, sottovalutando la proliferazione di contenuti razzisti e suprematisti. La reazione sarebbe poi stata tardiva, più efficace solo quando il problema è arrivato alla cassa. Occuparsene aumenta i costi e rischia di ridurre il coinvolgimento degli utenti. Risultati non certo graditi agli azionisti.

Non vedere – per convenienza o sottovalutazione - è convenuto a lungo. Facebook, Twitter e Youtube si sono mossi con maggior vigore solo quando i contenuti tossici sono diventati un rischio economico-finanziario: la prospettiva di un avvenire travagliato ha spaventato gli azionisti e il timore di essere associati a un video violento ha allertato gli inserzionisti. L'ultimo caso riguarda Youtube: il blogger Matt Watson ha denunciato l'esistenza di un “circolo pedo-pornografico” che si aggregava attorno a video soft-core. La piattaforma ha inasprito il proprio intervento dopo un paio di giorni, quando Disney e Nestlé hanno bloccato i propri investimenti pubblicitari.

Suprematismo vs Isis: due pesi, due misure?

C'è poi un altro punto, forse quello più scomodo e attuale. Le piattaforme si sono dimostrate (giustamente) molto rigide contro i video collegati al fondamentalismo islamista. Sono stati banditi non solo filmati di sgozzamenti e aperta propaganda, ma anche post che – in modo più sfumato – giustificavano azioni terroristiche. I risultati ci sono stati e sono visibili. Con l'estrema destra è stato così? Inchieste e studi sollevano qualche dubbio.

Un anno fa, Motherboard ha notato quanto fosse semplice trovare materiale neo-nazista su Youtube. Alcuni video simili a quelli indicati nell'articolo sono ancora online. Uno, pubblicato il 6 ottobre 2017, sostiene ad esempio il Nordic Resistance Movement, movimento scandinavo di stampo neonazista. Immagini di sfilate e addestramento paramilitare sono accompagnate da questo testo: “Le spade devono essere affilate, poiché la battaglia è in corso e le nostre terre saranno presto perse per gli invasori, dobbiamo rimanere uniti, le spade straniere devono essere cacciate”. È ancora online, nonostante una segnalazione dell'Agi a Youtube. Non ci sono immagini violente, ma il messaggio è comunque chiaro.

Toni di questo tipo non vengono (giustamente) perdonati al fondamentalismo religioso. Nel 2016, i ricercatori della George Washington University hanno confrontato il comportamento su Twitter di neonazisti e sostenitori dell'Isis. Hanno scoperto che, secondo molte metriche social, i primi erano più efficaci dei secondi: avevano molti più follower, twittavano più spesso e avevano “modalità di reclutamento simili”. La ricerca, però, individuava alcune differenze. I suprematisti facevano più fatica a trasformare il reclutamento online in una “forma di partecipazione materiale”. Anche perché – rispetto all'Isis – il panorama era più frammentato. In generale, l'estrema destra “non ha trovato un modo efficace per avanzare verso una fase di risveglio, in cui i nuovi aderenti sarebbero diretti verso un qualche tipo di supporto concreto”.

Dal mouse al fucile

Tra somiglianze e differenze, lo studio rintracciava però “prove sostanziali” di una “significativa rinascita del suprematismo bianco negli Stati Uniti”. E così quel “risveglio” che porta dal virtuale al reale non sembra più così lontano. Secondo un rapporto del Center for Strategic and International Studies dello scorso novembre, gli “attacchi terroristici di estrema destra” (definiti come le manifestazioni violente di natura etnica, religiosa, contro aborto e istituzioni) sono stati 31 nel 2017, il triplo rispetto al 2016. Sono stati 30 anche in Europa, un terzo in più dell'anno precedente e cinque volte quelli registrati nel 2014.

L'aumento dell'attività online si sta traducendo in un incremento di quella con le armi in mano. Con le piattaforme tecnologiche in ritardo. O quantomeno più distratte rispetto ad altri contenuti nocivi. Eppure già alla fine del 2016 (mentre Donald Trump diventava presidente e Mark Zuckerberg definiva “folle” l'ipotesi di influenze russe sulle elezioni) i ricercatori della George Washington University sottolineavano che “altri gruppi e movimenti estremistici sono pronti a seguire le orme dell'Isis, in parte a causa di fattori politici e in parte per la natura stessa dei social media, che consentono a comunità relativamente marginalizzate di avere una visibilità sproporzionata grazie ad azioni coordinate”.

Dopo l'Isis, “i nazionalisti bianchi fanno parte della seconda generazione dell'attivismo estremistico sui social media”. Facebook, Youtube e Twitter sono pronti a usare lo stesso rigore avuto con il terrorismo islamista? Rispondere “sì” vuol dire oscurare anche le zone grigie, scontentando una parte dei propri utenti e delle forze politiche che strizzano l'occhio al peggio.



Se avete correzioni, suggerimenti o commenti scrivete a dir@agi.it.
Se invece volete rivelare informazioni su questa o altre storie, potete scriverci su Italialeaks, piattaforma progettata per contattare la nostra redazione in modo completamente anonimo.