Non serve che il riconoscimento facciale funzioni davvero perché funzioni davvero

Il punto chiave però è un altro: sia che funzioni nell’immediato che a posteriori; con l’aiuto di un algoritmo o con un paziente occhio umano, una telecamera è in grado di collocarci in un luogo o in un altro, in compagnia di chi e a fare cosa. E questo già modifica il nostro comportamento

riconoscimento facciale
Ugo Barbàra / Agi
La telecamera per il riconoscimento facciale

Il mostro che tutto vede non ha cento occhi. Ne ha sì e no una ventina. E’ più inquietante che spaventoso e, come tutte le macchine che ostentano intelligenza, non ha un’aria molto intelligente.

Il mostro che tutto vede occupa una posizione tutto sommato defilata nello stand che Zte ha allestito di fronte al suo centro di ricerca di Shanghai. Una specie di paradiso per nerd dove si trovano dai droni per il monitoraggio della qualità dell’aria ai visori per la realtà aumentata da usare nelle scuole; dagli strumenti per il design e l’industria 4.0 (o 5.0 o 6.0 o dovunque siamo arrivati nel frattempo) a quelli per la sicurezza.

O, come dicono da queste parti, per l’armonizzazione della società. Perché non sentirete mai un cinese parlare di lotta al crimine, contenimento del dissenso o di controllo della società: per le autorità tutto rientra nel progetto di costruzione di una realtà in cui nulla possa turbare l’armonia, che sia un taccheggiatore o un dissidente. E perché anche l’armonizzazione sia armoniosa, serve che sia discreta. Invisibile, ma onnipresente.

Armonizzazione della società, recita la scritta in cinese e inglese su un grande monitor che mostra come funziona il riconoscimento facciale. Ed è a questo che serve il mostro che tutto vede.

Il suo lavoro è più facile a dirsi che a farsi: una telecamera con diciannove obiettivi scansiona continuamente una data area, rileva i visi di chi la attraversa e un algoritmo li confronta con un database di milioni di fotografie. Nel giro di una frazione di secondo ogni faccia viene identificata e sullo schermo, sopra la persona che cammina, compaiono nome e cognome. La differenza la fa il database: un conto è se la foto con cui fare il confronto viene pescata dagli archivi dell’azienda per la quale la persona lavora o la scuola che frequenta e un altro è se viene dagli schedari della polizia o dal registro di dissidenti o di personaggi che per varie ragioni le autorità vogliono tenere d’occhio.

L’ingegnere di Zte che spiega come funziona il riconoscimento facciale ne esalta le funzioni sociali: una donna segnala un’aggressione in una data strada e grazie al rilevamento della sua posizione non solo vengono inviati immediatamente i soccorsi, ma vengono identificate le persone intorno a lei, inclusi i criminali schedati.

Una cosa che inorridisce chiunque abbia a cuore cose come la tutela dei diritti umani e della privacy, ma che fa brillare gli occhi a chi deve occuparsi di sicurezza (o, se preferite, di armonizzazione della società). Ma il riconoscimento facciale funziona davvero?

Secondo i tecnici di Zte sì, benissimo. Ma con i cinesi, visto che l’intelligenza artificiale e il machine learning hanno avuto modo di ‘addestrarsi’ sulle strade di metropoli come Shanghai e Shenzhen. Un po’ meno – per loro stessa ammissione – con gli occidentali perché, dicono gli ingegneri con involontaria ironia, si assomigliano tutti. E per questo, secondo quanto rivela il Washington Post, le autorità americane hanno avuto accesso, senza consenso, alle patenti (e quindi alle foto) di milioni di americani per allenare il riconoscimento facciale.

Secondo uno studio dell’Università dell’Essex il riconoscimento facciale ci prende solo in un caso su cinque. Ai ricercatori è stato consentito l’accesso a sei sistemi di prova della Polizia Metropolitana di Soho, Romford e del centro commerciale Westfield di Stratford, a est di Londra, e il sistema “sbaglierebbe regolarmente l’identificazione di persone che vengono poi fermate per errore”, scrive il Guardian.

Scotland Yard, manco a dirlo, la vede diversamente e difende le potenzialità del sistema - che sarebbe sia legale sia efficace nell'identificazione dei sospetti - e contesta la ricerca definendola “estremamente deludente e realizzata con un approccio negativo e sbilanciato”.

Per le strade di una città come Shanghai le telecamere di sicurezza non si contano. Agli angoli delle strade, all’ingresso degli stretti vicoli in cui si affacciano le minuscole abitazioni a due piani, nei giganteschi centri commerciali: dovunque fanno capolino. Per non contare quelle montate sulle postazioni mobili della polizia e che vengono spostate a seconda della necessità. 

Una valutazione per difetto fatta da una società inglese di videosorveglianza stima che a Londra ci siano più di mezzo milione di telecamere, tra quelle gestite dalle autorità e quelle private: circa un obiettivo ogni 14 abitanti. Non tutte sono predisposte per il riconoscimento facciale istantaneo, ovviamente, ma su quasi ogni immagine si può applicare l’algoritmo.

Il punto chiave però è un altro: sia che funzioni nell’immediato che a posteriori; con l’aiuto di un algoritmo o con un  paziente occhio umano, una telecamera è in grado di collocarci in un luogo o in un altro, in compagnia di chi e a fare cosa.  

Camminando per le strade di Shanghai o di Pechino si ha la sensazione netta che nulla di brutto possa succedere. Che la possibilità di essere aggrediti, derubati o anche solo infastiditi sia remota e questo perché i cento occhi che tutto scrutano sono ben visibili. Lo stesso però può dirsi di Hong Kong, dove identici occhi sospettano un dissidente in ogni cittadino e ne osservano il comportamento. O delle scuole in cui viene sperimentato l’uso del riconoscimento facciale non solo per dare un nome agli studenti, ma per verificare quanto siano attenti a lezione e valutare sia la loro condotta che la capacità degli insegnanti. Da qualche tempo, poi, si discute della possibilità di applicare questa tecnologia alla lettura delle emozioni delle persone, magari di fronte a discorsi o eventi politici.

Ma a prescindere dallo scenario orwelliano, è una tecnologia già in grado di funzionare o è destinata a fare la fine delle auto a guida autonoma che sembravano pronte ad arrivare sulle nostre strade e sono tornate in laboratorio non appena non sono state in grado di distinguere un sacchetto di plastica da un ciclista?

La differenza fondamentale tra la guida autonoma e il riconoscimento facciale è tutta nella nostra testa. Agli integerrimi cittadini, tanto quanto ai criminali (potenziali o incalliti) basta sapere che il mostro che tutto vede può riconoscerli. E’ una variazione sul tema della celebre e discussa teoria delle finestre rotte enunciata per la prima volta nel 1982 sulle pagine di The Atlantic dal sociologo James Q. Wilson e dal criminologo George L. Kelling. Partiva dagli esperimenti di Philip Zimbardo del 1969 e giungeva alla conclusione che la polizia non può garantire la sicurezza nelle strade se si limita a perseguire i crimini: deve anche fare in modo che sia la comunità stessa prevenirli promuovendo meccanismi di controllo.

Meccanismi che oggi sono disponibili a basso costo anche se con tecnologie ampiamente perfettibili. Non serve che il riconoscimento facciale funzioni davvero perché funzioni davvero. Sta già funzionando, nel momento in cui, incrociando lo sguardo del mostro che tutto vede, ci sforziamo di nascondere qualunque emozione. Persino l’indifferenza.

 



Se avete correzioni, suggerimenti o commenti scrivete a dir@agi.it.