Nel 1956 uscì un breve racconto di fantascienza: i protagonisti erano tre mutanti che avevano la capacità di prevedere il futuro e in particolare di prevedere i crimini prima che accadessero. Nel 2002 Steven Spielberg da quel racconto trasse un film di grande successo, Minority Report, con Tom Cruise. Ora quella visione futurista sembra diventare realtà.
Una startup russa, Ntechlab, fondata dal giovane Artem Kuharenko, sostiene di aver realizzato un software che consente ad una telecamera di leggere le nostre emozioni. Lo scopo è darlo alle forze dell’ordine di tutto il mondo per le migliaia di telecamere che presidiano le strade delle città. Secondo la Ntech Lab il software sarebbe in grado di individuare nella folla chi è stressato, chi è arrabbiato, chi è ansioso. E quindi di segnalare possibili comportamenti sospetti di chi sta per commettere un crimine o addirittura un attentato. “In un paio di secondi siamo in grado di individuare fra la folla un terrorista o un killer”, è l’ardita promessa.
Una versione meno evoluta dello stesso software un anno fa è stata utilizzata per lanciare la app Findface che da una semplice foto può riconoscere chiunque abbia un profilo di VKontakte il Facebook russo. Sarebbe servita a far reincontrare amici che si erano persi di vita da anni, ma anche a scovare criminali per casi irrisolti da tempo. La nuova versione del software aggiunge la capacità di leggere le emozioni: la rabbia, lo stress, l’intenzione di commettere un crimine. Pare che la tecnologia sia già stata adottata dalle 150 mila telecamere a circuito chiuso di Mosca (dove non consiglio di passeggiare se si è appena litigato con qualcuno a questo punto). Ma i clienti di Ntech Lab, che su questo terreno si vanta di essere avanti a Google e Facebook, sono negli Stati Uniti e in Cina, in Australia e in India.
Insomma, 60 anni dopo il racconto di Philip Dick quel futuro sembra arrivato. Ma la visione di una società senza delitti di Minority Report non è affatto un paese delle meraviglie. Nel film infatti il protagonista cerca disperatamente di ottenere il rapporto di minoranza che a differenza degli altri due non lo accusa di un omicidio futuro. Insomma, la tecnologia sbaglia. Nel film c’è un 33 per cento di errore. La startup russa per ora sostiene di avere una accuratezza del 94 per cento: molto meglio ma non vorrei essere nei panni degli altri sei casi.
Leggi cosa cambierà sulla privacy col nuovo regolamento europeo