agi live
L'intelligenza artificiale nel 2023 sarà più "empatica" (ma a rischio discriminazioni)

L'intelligenza artificiale nel 2023 sarà più "empatica" (ma a rischio discriminazioni)

Secondo gli esperti il rischio è che gli algoritmi usati dall'intelligenza artificiali possano esacerbare le disuguaglianze di genere e razziali e in questo modo perpetuare e rafforzare le disuguaglianze

intelligenza artificiale sara sempre più empatica discriminazione

© DESIGN CELLS / SCIENCE PHOTO LIBRA / DCE / SCIENCE PHOTO LIBRARY VIA AFP - Intelligenza artificiale e riconoscimento facciale, illustrazione

AGI - Come sarà il 2023? Artificialmente emozionante. In un articolo dedicato all’Intelligenza Artificiale, il mensile americano Wired racconta che Hume AI, fondata da Alan Cowen, ex ricercatore di Google, “sta sviluppando strumenti per misurare le emozioni dalle espressioni verbali, facciali e vocali” mentre la società svedese Smart Eyes ha sviluppato la rete neurale SoundNet, “un algoritmo che classifica emozioni come la rabbia da campioni audio in meno di 1,2 secondi”. Allo stesso tempo, la piattaforma video Zoom sta introducendo Zoom IQ, “funzionalità che presto fornirà agli utenti un'analisi in tempo reale delle emozioni e dell'engagement durante una riunione virtuale”.

Insomma, stando a Wired, nel 2023 le aziende tecnologiche rilasceranno chat-robot avanzate “in grado di imitare da vicino le emozioni umane per creare connessioni più empatiche” con gli utenti nel settore bancario, dell'istruzione e dell'assistenza sanitaria in modo che entro l’anno in corso “l'intelligenza artificiale emotiva diventerà comune anche nelle scuole”. Un modo, per gli insegnanti, di tenere conto “dei cambiamenti emotivi negli studenti, nonché della loro motivazione e concentrazione, consentendo loro di intervenire tempestivamente se un alunno sta perdendo interesse”.

Ma per il mensile Usa delle tendenze tecnologiche, c’è più di una controindicazione, perché “il problema è che la maggior parte dell'intelligenza artificiale emotiva si basa su una scienza imperfetta”. Il punto è che gli algoritmi d’intelligenza artificiale emotiva, anche se addestrati su set di dati ampi e diversificati, “riducono le espressioni facciali e tonali a un'emozione senza considerare il contesto sociale e culturale della persona e la situazione”.

Se gli algoritmi possono riconoscere e segnalare che una persona sta piangendo, “non è sempre possibile dedurre con precisione il motivo e il significato dietro le lacrime” e allo stesso modo, “una faccia accigliata non implica necessariamente una persona arrabbiata”, ma questa è la conclusione che probabilmente raggiungerà un algoritmo.

La spiegazione di questa sfasatura è che tutti noi “adattiamo le nostre manifestazioni emotive in base alle nostre norme sociali e culturali, in modo che le nostre espressioni non siano sempre un vero riflesso dei nostri stati interiori, precisa la rivista, “pertanto le tecnologie d’intelligenza artificiale che fanno supposizioni sugli stati emotivi probabilmente esacerberanno le disuguaglianze di genere e razziali nella nostra società” al punto che “il riconoscimento facciale AI può anche perpetuare le disuguaglianze”.

In conclusione, le tecnologie di intelligenza artificiale emotiva “diventeranno più pervasive nel 2023”, ma se non contestate e non esaminate, rafforzeranno i pregiudizi sistemici razziali e di genere, replicheranno e rafforzeranno le disuguaglianze nel mondo e svantaggeranno ulteriormente coloro che sono già emarginati.