Il fallimento dell'intelligenza artificiale

Nessuno si era accorto del video postato su YouTube dal dirottatore dello scuolabus poco prima di entrare in azione. E anche nel caso dell'attentato alle moschee in Nuova Zelanda, i sistemi automatici non hanno segnalato il video in diretta del killer. Il punto adesso è creare sistemi che siano "meno artificiali e più intelligenti" rimettendo al centro l'essere umano

intelligenza artificiale scuolabus youtube facebook
Agf
I resti dello scuolabus dato alle fiamme

Non ho visto né sentito il video che l’attentatore dello scuolabus avrebbe postato sul suo canale YouTube poco prima di entrare in azione, anticipando le sua intenzione di compiere un gesto eclatante. Ma qualcosa forse la possiamo già dire su come funzionano, o meglio, non funzionano i sistemi automatici che dovrebbero bloccare i contenuti inappropriati allertando gli investigatori in caso di pericolo. Anche nel caso della scorsa settimana, l’agguato in due moschee in Nuova Zelanda finito con un tragico bilancio di 50 morti, si era parlato della lentezza con cui le piattaforme digitali, in quel caso non YouTube ma Facebook, avevano reagito.

Ieri sera Guy Rosen, uno dei vice presidenti di Facebook, responsabile dell’integrità, che non so bene cosa faccia quindi, in un commento postato in rete ha ammesso che “gli strumenti di intelligenza artificiale hanno fallito” nell’obiettivo di segnalare il video in diretta della sparatoria. Semplicemente, l’algoritmo che la governa, non se n’è accorta. C’era un tale che sparava all’impazzata ammazzando chiunque incontrasse, e l’intelligenza artificiale non ha capito cosa stava accadendo.

intelligenza artificiale scuolabus youtube facebook
Flavio Lo Scalzo / AGF 
Lo scuolabus dato alle fiamme dall'autista sulla tangenziale di Milano

Ora, chiarito (lo abbiamo fatto qualche giorno fa), che non sono i social media ad aver creato il terrorismo, che esiste da molto tempo prima, non si può non stigmatizzare il fallimento della decantata intelligenza artificiale. Che nei casi di YouTube e Facebook, immaginiamo essere il top della tecnologia disponibile.

Lo sappiamo tutti di cosa stiamo parlando: se provate a caricare in rete una canzone o un video protetto da copyright, la piattaforma ve lo impedisce; e se pubblicate una foto memorabile dove si vede un bambino vietnamita che fugge dopo una esplosione, idem, perché pedornografia; e lo stesso accade se caricate un quadro che ha un nudo d’autore.

Ascolta qui la telefonata di Adam (12 anni) alla mamma dallo scuolabus dirottato

Insomma, sanno come si filtra un contenuto. E a volte filtrano anche quelli che invece sono legittimi, come abbiamo visto. Eppure se qualcuno spara in diretta, l’algoritmo non se ne accorge, se uno minaccia un attentato nemmeno. Da qualche mese fra gli studiosi si è aperto il dibattito su quali siano i limiti dell’intelligenza artificiale,  su quale etica debba avere, su quali compiti affidarle. Il dibattito è appena partito, ma la sintesi che ne è emersa per ora è che dobbiamo costruire sistemi che siano “meno artificiali e più intelligenti”. Less artificial, more intelligent. Nel frattempo rimettere al centro l’essere umano.



Se avete correzioni, suggerimenti o commenti scrivete a dir@agi.it.
Se invece volete rivelare informazioni su questa o altre storie, potete scriverci su Italialeaks, piattaforma progettata per contattare la nostra redazione in modo completamente anonimo.