Facebook ha bloccato 2,2 miliardi di account falsi nei primi tre mesi del 2019: un numero che si avvicina a quello totale degli utenti attivi mensilmente sulla piattaforma, circa 2,4 miliardi secondo gli ultimi dati. È uno dei dati pubblicati dall'azienda nel suo terzo rapporto sulle misure di potenziamento degli standard della community (Community Standards Enforcement Report), un report dove l'azienda spiega le azioni intraprese per mantenere la piattaforma libera dagli account falsi, contenuti d'odio (hate speech), azioni che violano le policy del social e disinformazione online.
Il report del colosso dei social network spiega che nel primo trimestre del 2019 sono stati rimossi 2,19 miliardi di account, rispetto ai 1,2 miliardi bloccati nell'ultimo trimestre del 2018. Un numero così alto di account è spiegato in un secondo comunicato della società, dove Guy Rosen (Vicepresident of Integrity) spiega che "Il numero di account su cui abbiamo agito è aumentato a causa di attacchi condotti da profili che sulla piattaforma hanno tentato di creare un gran numero di account falsi contemporaneamente".
Un altro dato rilevante riguarda il numero di post sospesi o rimossi perché contenenti messaggi di incitamento all'odio (hate speech): il loro numero è salito a 4 milioni nel trimestre, da 3,3 milioni nel precedente. La società sottolinea però che è anche la sua capacità di rilevare questi messaggi ad essere aumentata col tempo. Secondo i dati diffusi, il 65,4% dei messaggi individuati e rimossi è stato rilevato da sistemi e processi interni, con un aumento rispetto alle precedenti rilevazioni del 58,8%. Per la prima volta inoltre il report rivela che tra gennaio e marzo 2019 ci sono stati più di un milione di appelli contro la decisione della società di cancellare dei post accusati di 'hate speech'. Di questi, circa 150.000 sono stati ripristinati dopo le richieste degli utenti.
Un’altra novità del rapporto di Facebook consiste nei dettagli sui post eliminati perché contenenti proposte di vendita di armi e droga: si tratta di 900 mila post rimossi perché violavano le policy sulla droga e di 670 mila post che violavano quelle sulle armi.
“Nell'estate del 2018, abbiamo iniziato a utilizzare l'intelligenza artificiale per identificare contenuti che violano le nostre policy”, scrive la società. “Questo investimento ci ha permesso di agire su più contenuti e, nella maggior parte dei casi, di farlo prima che le persone abbiano avuto bisogno di segnalarcelo”, conclude la nota.