L'intelligenza artificiale ha imparato a leggere come camminiamo

Movimenti più veloci e più “estesi”, con passo più slanciato e che tende a occupare più spazio, sono associati a emozioni positive. Mentre una maggiore ritrosia fisica accompagna quelle negative

intelligenza artificiale andatura camminata  

Il viso può mentire, il modo di camminare no. Uno studio americano delle università di Chapel Hill e del Maryland ha utilizzato l'intelligenza artificiale per capire lo stato d'animo solo dall'andatura.

Molto spesso questo tipo di ricerche si concentra sul volto: i movimenti del viso come traccia delle emozioni. Un po' perché la faccia è sempre stata reputata la parte del corpo più espressiva. Un po' perché per creare un sistema in gradi di riconoscere le emozioni servono tanti dati, il più possibili vari e “puliti”. Ed è più semplice creare un archivio di volti che di “camminate”, per le quali non sono sufficienti foto ma servono video.

Tuttavia, sottolineano i ricercatori statunitensi, alcuni studi hanno evidenziato che “in alcuni casi le espressioni facciali possono essere inaffidabili”. Cambiano notevolmente, ad esempio, se siamo in un ambiente familiare o in pubblico. Ecco perché andare oltre il viso ed esplorare altri segnale delle nostre emozioni.   

Che cosa dice la camminata

Lo studio ha provato a distinguere, in tempo reale, stati d'animo di base: arrabbiato, felice, triste e neutro. I risultati sono stati promettenti: il sistema di riconoscimento automatico ha azzeccato nell'80% dei casi, nonostante un database di partenza tutto sommato contenuto: l'intelligenza artificiale, battezzata Ewalk (Emotion Walk) ha imparato analizzando 1384 video di andature di 24 persone, estratte da riprese fatte nei campus delle università, sia negli edifici che negli spazi esterni.

Leggi anche: Non serve che il riconoscimento facciale funzioni perché funzioni davvero

I messaggi inviati da un corpo che cammina dipendono – tra le altre cose – dalla postura della spalla, l'ampiezza dei passi, i movimenti delle mani, la posizione del collo. L'angolo di inclinazione della testa, ad esempio, è un fattore decisivo per distinguere tra felicità e tristezza. Movimenti più veloci e più “estesi”, con passo più slanciato e che tende a occupare più spazio, sono associati a emozioni positive. Mentre una maggiore ritrosia fisica accompagna quelle negative.  

Applicazioni per il futuro

Gli stessi ricercatori sottolineano che il metodo non è infallibile. Ma è il primo nel suo genere. Ampliando l'archivio e perfezionando gli algoritmi, sono convinti che fornirà una solida base per studi che vanno oltre i volti per identificare gli stati d'animo. “Le emozioni – afferma lo studio - giocano un ruolo importante nelle nostre vite, definiscono le nostre esperienze e danno forma a come vediamo il mondo e interagire con gli altri umani”, affermano i ricercatori.

Ma a cosa potrebbe servire farle conoscere a una macchina? “Il riconoscimento automatico delle emozioni è quindi un tema critico in molti campi, come giochi e intrattenimento, sicurezza, shopping, interazione uomo-computer e interazione uomo-robot”.  



Se avete correzioni, suggerimenti o commenti scrivete a dir@agi.it.
Se invece volete rivelare informazioni su questa o altre storie, potete scriverci su Italialeaks, piattaforma progettata per contattare la nostra redazione in modo completamente anonimo.