L'intelligenza artificiale, funziona meglio per i bianchi dei paesi ricchi

L'intelligenza artificiale, funziona meglio per i bianchi dei paesi ricchi

Uno studio pubblicato su Nature rivela come la "correttezza" delle intelligenze artificiali sia a serio rischio perché i ricercatori che si occupano di rimuovere i pregiudizi e bias dalle loro scelte siano in realtà in gran parte maschi, bianchi e provenienti da paesi più sviluppati. Gli algoritmi ne verrebbero così falsati

scienza intelligenza artificiale correttezza a rischio per ricercatori

© Shuterstock - Intelligenza Artificiale

AGI – I ricercatori che si occupano di rimuovere i pregiudizi e bias dalle scelte delle intelligenze artificiali sarebbero per la maggior parte bianchi, uomini e residenti nei paesi maggiormente sviluppati del mondo, il che rischierebbe di mettere a repentaglio l’efficacia del loro lavoro, e per conseguenza, la “correttezza” delle intelligenze artificiali. È questo quanto sostiene un articolo recentemente apparso su “Nature”, che riprende uno studio apparso in prestampa su “medRxiv” a firma di un gruppo di scienziati guidati da Isabelle Rose I. Alberto dell’Università delle Filippine.

In particolare lo studio si sofferma sugli strumenti di intelligenza artificiale (IA) utilizzati nell’assistenza sanitaria, come quelli progettati per rilevare determinate malattie dai dati sui campioni di sangue dei pazienti. Gli scienziati hanno analizzato 375 articoli di ricerca e revisione sull’equità dell’intelligenza artificiale nell’assistenza sanitaria, pubblicati su 296 riviste tra il 1991 e il 2022. Di 1.984 autori, il 64 per cento era bianco, mentre il 27 per cento era asiatico, il 5 per cento era nero e il 4 per cento era ispanico.

L’analisi ha anche rilevato che il 60 per cento degli autori era di sesso maschile e il 40 per cento di sesso femminile. “Questi risultati riflettono ciò che sta accadendo nella comunità di ricerca in generale”, afferma il coautore dello studio Leo Anthony Celi, informatico sanitario e ricercatore clinico presso il Massachusetts Institute of Technology di Boston, il quale ha anche aggiunto che la mancanza di diversità è problematica, perché porta a set di dati e ad algoritmi distorti che funzionano meglio per i bianchi dei paesi ricchi. Analizzando i dati sulle sedi delle istituzioni cui erano associati gli autori, i ricercatori hanno scoperto che l’82 per cento degli stessi risiedeva in paesi ad alto reddito, mentre solo lo 0,5 per cento risiedeva in paesi a basso reddito.

Gli articoli guidati da ricercatori con sede in paesi ad alto reddito sono stati citati quattro volte di più rispetto a quelli guidati da ricercatori in paesi a basso reddito. “È importante che queste disuguaglianze vengano portate alla luce perché se i sistemi di intelligenza artificiale sono pieni di pregiudizi, possono essere utilizzati in un modo che riproporrà le disuguaglianze presenti nel settore della salute, il che è davvero problematico”, afferma Kristine Bærøe, studiosa di etica della salute presso l’Università di Bergen in Norvegia.

“Bisognerebbe far sì che coloro che siedono al tavolo della ricerca siano rappresentativi di coloro che sono sproporzionatamente gravati dalle malattie, e che potrebbero beneficiare maggiormente di queste tecnologie”, afferma ancora Celi. Ad esempio, aggiunge, alcuni strumenti di intelligenza artificiale utilizzati per calcolare i livelli di ossigeno nel sangue funzionano in modo più accurato per i bianchi, quando invece servirebbero maggiormente ad altre popolazioni. Promuovere una cultura più inclusiva potrebbe aiutare a trattenere nella ricerca scienziati provenienti da gruppi etnici emarginati che, a loro volta, contribuirebbero a ridurre i pregiudizi incorporati in questi strumenti, conclude Celi. Gli autori dello studio hanno comunque sottolineato che il loro lavoro di analisi soffre di alcune limitazioni: ad esempio i dati demografici sono stati estratti da una combinazione di profili online e database della letteratura scientifica, ma questa tecnica non ha permesso di valutare se nei conteggi fossero presenti ricercatori non binari o multietnici, afferma il coautore Charles Senteio, un medico informatico presso la Rutgers University di New Brunswick, New Jersey. Ciò significa escludere queste identità dall’analisi. “Abbiamo bisogno di modi migliori per tenere traccia delle identità delle persone. Una soluzione sarebbe offrire ai ricercatori più opzioni di identificazione per genere e etnia, relativamente alle informazioni scientifiche”, afferma Senteio.