Le finzioni credibili dei big data secondo il Financial Times

Il quotidiano economico britannico mette in guardia sulla ricerca e l'utilizzo ossessivi delle informazioni personali dei consumatori su larga scala. L'interpretazione di quei dati può generare manipolazioni economiche e sociali. Ecco perché

Le finzioni credibili dei big data secondo il Financial Times
 Afp

Nell'era del digitale uno dei pericoli maggiori che corriamo è quello di interpretare erroneamente i dati che produciamo. Lo sostiene John Thornhill, opinionista del Financial Times, in un pezzo in cui s'interroga sui Big Data, i milioni di dati generati dai telefoni, dalle carte di credito, dai pagamenti online, dalle tv, che contengono un’impressionante quantità di informazioni personali, le quali possono diventare oro colato per chi è in grado di gestirle e interpretarle. Le correlazioni di dati, spiega Tornhill, sono spesso fasulle: spogliati del loro contesto, i dati possono infatti essere e spesso lo sono, fuorvianti. Essi possono servire, non per informarci, ma per creare, per plasmare la società in cui viviamo, la nostra realtà, creando un mondo di finzioni credibili. Finzioni che si possono utilizzare per classificare e manipolare i consumatori in economia, per condizionare l'elettorato in politica, o di cui la burocrazia può servirsi per discriminare, o favorire certi cittadini, a scapito di altri.

L'esempio di Alibaba

Un esempio? Il colosso cinese dell'e-commerce Alibaba sta mettendo a punto una sorta di punteggio per misurare l'affidabilità dei consumatori. Per questo sta raccogliendo milioni di dati di tutti i tipi, dagli acquisti online alle tariffe del metrò, per creare delle tabelle, dei profili su cui basare il credito al consumo da concedere ai propri clienti. Tuttavia la lezione che emerge è che c'è una bella differenza tra Big data e dati forti, cioè tra dati personali trattati all'ingrosso e dati personali significativi. Risultato: Alibaba non ha ancora usato le sue tabelle per concedere prestiti.

Il data center di Alibaba (Afp)
 

Qual è il problema? Come spiega Dai Xin, professore di giurisprudenza alla Ocean University in Cina, citato da Thornhill nel suo articolo, la difficoltà sta nella correlazione dei dati: è difficile costruire modelli predittivi affidabili disponendo di contesti diversi. "Uno studente che copia in classe - si interroga Dai - commetterà anche delle frodi?". Gli esperti di tecnologia sanno bene che gli algoritmi sono espressamente progettati per selezionare e ordinare le persone in diverse categorie, gruppi e classi. Ma ciò significa che occorre essere incredibilmente cauti nel comprendere quali dati includere o escludere per costruire un modello. Il rischio che si corre, altrimenti, è che la discriminazione algoritmica diventi "monossido di carbonio per i Big Data", cioè li renda incolori, inodori e potenzialmente letali. Solo "ossigenando" adeguatamente i dati con il contesto, essi diventano sicuri.

L'ossessione di misurare tutto

Steffen Mau, professore di macrosociologia all'Università Humboldt di Berlino, nel suo libro di prossima pubblicazione, 'The Metric Society', spiega che la nostra ossessione di misurare tutto, dai voti scolastici agli sguardi personali, alle abitudini comportamentali, alla popolarità, sta creando nuovi valori, una cultura "conforme e performante", un mondo di "finzioni credibili". Le statistiche non riflettono solo il mondo esistente ma stanno costruendo una nuova realtà alternativa, i dati non vengono solo usati per informare la società ma per formarla. "I numeri - spiega Mau - descrivono, creano e riproducono degli status. I numeri creano l'uomo".

Chi decide quali dati e quali numeri raccogliere e chi determina il significato di questi numeri acquista quindi ed esercita una nuova forma di potere. Ma le metodologie utilizzate dalle agenzie internazionali, dalle istituzioni governative, o dalle società tecnologiche globali per classificarci e prendere di conseguenza delle decisioni importanti sulle nostre vite e sulle nostre scelte non sono soggette a dei controlli particolarmente approfonditi. Ciò può diventare molto importante e potenzialmente pericoloso quando gli algoritmi possono determinare in modo decisivo quali voti dare agli studenti a scuola, quali posti di lavoro offrire ai candidati di un concorso o di una selezione, oppure e se a un arrestato si può concedere o meno la libertà su parola, o su cauzione.

La sfida che si pone, secondo Thornhill, è quella tra nuove forme di autorità e di potere capaci di sorvegliarci e di supervisionare le nostre vite e una cultura dell'auto-sorveglianza che consenta a ciascuno di noi di monitorare e indirizzare più liberamente le nostre scelte.

*(L'articolo del Financial Times dell'opinionista John Thornhill s'intitola "Lessons from history on the dangers of blind trust in data").

 



Se avete correzioni, suggerimenti o commenti scrivete a dir@agi.it