I limiti dei robot-pischiatri

I limiti dei robot-pischiatri

Un articolo pubblicato da France Soir che sottolinea come  “l'Intelligenza Artificiale sembra utile per poter soddisfare una forte domanda, in particolar modo in termini di diagnosi”. Ma i problemi, dall'empatia alla privacy, sono ancora difficili da risolvere

robot psichiatri intelligenze artificiali

 Robot in ambito medico

AGI - Robot-psichiatri verranno a breve in sostegno e supporto alle nostre angosce quotidiane? Ci analizzeranno, ascoltandoci, per farci superare le crisi di debolezza psichica? “In un contesto in cui i disturbi e le patologie psicologiche e psichiatriche sono in aumento”, si legge in un articolo pubblicato da France Soir,  “l'Intelligenza Artificiale sembra utile per poter soddisfare una forte domanda, in particolar modo in termini di diagnosi”. 

Ma attenzione, avvertono gli esperti, perché nonostante la proliferazione di disturbi sorti durante la crisi del Covid-19, ”il successo delle intelligenze artificiali e la loro accettazione da parte degli operatori sanitari non è facile, perché gli algoritmi sono sempre distorti”.

Il tema affrontato dall’articolo riguarda le applicazioni di aiuto psicologico e psichiatrico che “si sono sviluppate in particolare durante il parto, quando le persone erano immerse in situazioni di stress e ansia e senza un facile accesso agli operatori sanitari” cosicché le applicazioni vengono utilizzate “per combattere la solitudine e fornire supporto, oppure per gestire lo stress e facilitare il teleconsulto” per possono essere utilizzate anche “a sostegno del personale infermieristico”.

Però le applicazioni e gli strumenti digitali per la salute mentale “sono diversi e vari”, si constata, cosìcché se per taluni è più facile confidarsi con le macchine, i limiti degli scambi con l'intelligenza artificiale per la raccolta di dati sensibili sono ancora al centro del dibattito sull'assistenza psicologica da parte degli algoritmi.

Certo, seguita il giornale, i robot hanno già sostituito i camerieri nei ristoranti, i giornalisti in molte redazioni, i dipendenti nelle fabbriche e persino il servizio clienti o alcune posizioni amministrative, ma “riusciranno un giorno a sostituire anche i nostri psichiatri?” Ci sono i pro e i contro, perché se da un lato software e applicazioni automatiche garantiscono disponibilità 24 ore su 24, 7 giorni su 7, ma d'altra parte, non possono garantire l'ideale di competenza neutrale, o più oggettiva dell'uomo, contrariamente a quanto "si potrebbe pensare".

Secondo Vincent Martin, dottore in informatica all'Università di Bordeaux, e Christophe Gauld, psichiatra infantile e medico del sonno all'Università di Parigi 1 Panthéon-Sorbonne, non dobbiamo mai dimenticare che le intelligenze artificiali riproducono solo pregiudizi, e sono quindi mai neutrale.

Mancano di empatia e sono bersagli degli hacker 

Il punto debole dei robot in psichiatria e psicologi, secondo una corrente di pensiero, sarebbe dovuta alla loro “mancanza di empatia”. Thomas Gouritin, esperto di chatbot, nient’altro che un software che simula ed elabora le conversazioni umane (scritte o parlate), consentendo agli utenti di interagire con i dispositivi digitali come se stessero comunicando con una persona reale, spiega ad esempio che gli assistenti lavorano con un sistema di rilevamento tramite parole chiave. 

Tant’è che lo chatbot è programmato per rispondere a determinate parole di avviso, come "tristezza" o "solitudine", ma non può necessariamente fornire una risposta veramente empatica e su misura. E il fatto di non essere compreso da un chatbot per un umano può comportare un senso di frustrazione aumentando, al contrario, la sensazione di ansia. Quindi la mancanza di empatia nell'Intelligenza Artificiale, alla fine impedisce ai robot psicologi di adattarsi in tempo reale alle risposte dei pazienti. 

“Rimangono quindi limitate ad uno schema prestabilito e rigido. Inoltre, i gesti, la posizione dei corpi nello spazio, leggere le emozioni sul volto o riconoscere segnali sociali non espliciti sono per loro generalmente impossibili, e tutto ciò costituisce perdite significative nel rapporto paziente-caregiver, che è anche una parte importante della cura”, spiegano Vincent Martin e Christophe Gault.

E poi ci sarebbe da mettere nel conto anche un altro problema: memorizzando le risposte e i dati dei pazienti che interagiscono con le macchine, queste stesse informazioni sono sempre suscettibili di furto. Tant’è che in Finlandia, ad esempio, il Centro di Psicoterapia Vastano, presente in 300 città del Paese, è stato preso di mira ed è rimasto vittima di un hackeraggio senza precedenti. E ora le vittime ora ci pensano due volte prima di affidare i loro dati e problemi psicologici alle macchine. Insomma, con la privacy non si scherza.