Facebook ha usato l'intelligenza artificiale per stabilire cosa è terrorismo

Altro giro di vite sull'estremismo: 1,9 milioni di contenuti rimossi in tre mesi, anche con l'intervento dell'occhio umano

Facebook ha usato l'intelligenza artificiale per stabilire cosa è terrorismo
Fabrizio Bensch/dpa
 
Lutz Bachmann, co-fondatore dei Patrioti europei contro l'islamizzazione dell'Occidente sotto processo a Dresda per un post su Facebook

Facebook ha rimosso quasi 2 milioni di contenuti considerati terroristici nei primi tre mesi dell’anno. Circa il doppio rispetto al trimestre precedente. Per la precisione, si tratta di 1,9 milioni di contenuti “estremisti” collegati a Isis o Al-Qaeda.

Il social network dice di averli eliminati in gran parte; mentre una loro frazione sarebbe rimasta online ma accompagnata da un avviso, un bollino di avvertimento; non è stata sospesa solo perché era materiale condiviso a scopo informativo o per contrastare proprio l’estremismo.

Intelligenza umana e artificiale

Lo ha annunciato il social network in un post sul suo sito. Il 99 per cento dei contenuti rimossi – specifica il post - non è stato individuato attraverso segnalazioni esterne, ma coi meccanismi interni del social, ovvero con la sua tecnologia e il suo personale.

Una puntualizzazione non casuale in tempi in cui il colosso guidato da Mark Zuckerberg è sotto la lente dei governi che stanno mettendo in discussione la sua capacità di autoregolarsi, sia sul fronte della protezione dei dati degli utenti sia su quello dell’abuso della piattaforma a fini di propaganda.

Cacciatori di immagini

Facebook ha dunque usato software automatizzati per riconoscere buona parte del materiale estremista, soprattutto immagini. Ma anche un team antiterrorismo di 200 persone, cresciute di 50 unità rispetto allo scorso giugno. Così, il tempo medio per rimuovere contenuti terroristici nuovi è stato inferiore a un minuto.

La parte più interessante della comunicazione di Facebook è però forse quella in cui, per la prima volta, chiarisce cosa intende per terrorismo: “Qualsiasi organizzazioni non governativa che è coinvolta in atti premeditati di violenza contro persone o la proprietà per intimidire civili, governi o organizzazioni internazionali al fine di raggiungere un obiettivo politico, religioso o ideologico”.

Il discrimine della violenza

Si tratterebbe di una definizione agnostica rispetto all’ideologia o al fine politico; il punto è l’uso della violenza, spiega Facebook. Che aggiunge esempi specifici: estremisti religiosi, separatisti, suprematisti bianchi e militanti ambientalisti possono ricadere tutti nella categoria, se usano mezzi violenti per ottenere i loro scopi.

Mentre i governi, malgrado impieghino la violenza, non sono inclusi. Curioso che il comunicato, per il resto abbastanza generico, per indicare lo sforzo incessante della lotta contro il terrorismo arrivi a citare una frase attribuita all’Ira in riferimento a un fallito attentato a Margaret Thatcher: “Oggi siamo stati sfortunati, ma ricordatevi che dobbiamo essere fortunati solo una volta - mentre voi dovrete esserlo sempre”.

 

 


 



Se avete correzioni, suggerimenti o commenti scrivete a dir@agi.it