Post aggiornato alle 15.30 del 29 dicembre.
Si parla spesso, anche se non abbastanza, delle professioni del futuro. Di come la tecnologia abbia cambiato per sempre il lavoro, cancellando antichi mestieri e creandone di nuovi. Ma per esempio non ci eravamo soffermati abbastanza, anzi, per nulla, su uno dei nuovi lavori in fondo più importanti per l’umanità: il moderatore di Facebook.
Ad aprire un velo su cosa deve saper fare un moderatore di Facebook contribuisce oggi il New York Times che ha messo le mani su un documento molto corposo, mille e quattrocento pagine, con tutte le indicazioni che ricevono i moderatori per poter cancellare immediatamente - massimo in dieci secondi - post che in qualche modo inneggino o sostengano violenza, terrorismo, guerre e razzismo.
E’ evidente che si tratta di un compito delicatissimo visto che oltre due miliardi di persone, un abitante della Terra su tre, comunicano attraverso Facebook in quasi tutte le lingue del mondo. Inizialmente il team di Mark Zuckerberg pensava che questo incarico potesse essere affidato alla cosiddetta intelligenza artificiale, ovvero alla capacità dei computer di capire il nostro linguaggio, non solo le parole, ma anche le sfumature e il contesto.
Ma più o meno un anno fa è stato evidente che non funzionava: c’erano troppi post violenti mentre magari il sistema bloccava un quadro famoso con un nudo d’artista perché considerato pornografia o una foto premiatissima della guerra del Vietnam perché inneggiante alla guerra.
Da allora, secondo il New York Times, Facebook ha assunto settemila e cinquecento moderatori che sono guidati da un piccolo team di ingegneri e avvocati che una volta alla settimana, il martedì, si incontrano a Menlo Park per colazione e lì, tra un caffé e una brioche, aggiornano le linee guida del pianeta Terra creando di volta in volta delle slide, i fogli fatti in PowerPoint che si usano per le presentazioni, in cui ciascun problema viene affrontato con la logica del vero o falso, giusto e sbagliato.
L’impressione, scorrendo alcune delle slide, è che sia tutto molto artigianale, ma nel senso deteriore del termine: approssimativo, superficiale, casuale. Una sfida fondamentale per il nostro tempo, creare un argine al dilagare della violenza in rete, viene affrontata monitorando miliardi di post ogni giorno in oltre 100 lingue diverse tramite una armata brancaleone dotata di un pacco di slide fatte a volte con l’ausilio di Google Translate, il software di Google per le traduzioni automatiche (e maccheroniche).
Facciamo troppi errori, ha detto il dipendente di Facebook che ha passato il malloppo al New York Times. Dalla drastica riduzione degli errori dipende non solo la nostra qualità della vita social, ma anche la sopravvivenza stessa di Facebook.
La risposta di Facebook all'AGI
“Sono circa 15.000 i revisori di contenuti localizzati in tutto il mondo. Quando si tratta di revisione dei contenuti, per noi è prioritario che il lavoro sia accurato, per questo assumiamo persone madrelingua e lavoriamo con team in grado di esaminare contenuti in oltre 50 lingue diverse. Per la stessa ragione non c’è un numero di contenuti minimo che i revisori devono analizzare nel corso di una giornata, o un tempo limite da impiegare per prendere una decisione su un determinato contenuto. In generale, i nostri materiali di formazioni non vengono utilizzati per applicare le policy di Facebook ma sono pensati per aiutare i revisori, fornendo loro esempi inusuali o non comuni in cui potrebbero imbattersi nel valutare dei contenuti su Facebook” – attribuibile ad un portavoce Facebook