Pisa – Il robot umanoide FACE è stato l’insolito protagonista di un video molto speciale, reso pubblico lo scorso 25 agosto. Nel mese estivo per eccellenza, i laboratori del Centro “E. Piaggio” dell’Università di Pisa si sono infatti trasformati in un set cinematografico, e hanno ospitato le riprese del reaction video del film “Morgan” della 20th Century Fox, che uscirà nelle sale italiane il 6 ottobre.
I reaction video mostrano le reazioni emotive di varie persone messe di fronte al trailer del film. Dato il successo di questi video, alcuni dei quali raggiugono su YouTube anche i 14 milioni di contatti, la 20th Century Fox ha deciso di produrre anche un robot reaction video, in cui spettatori del trailer sono stati automi umanoidi, tra cui FACE, di cui sono state filmate le reazioni.
“La complessa struttura del volto del robot – spiega Daniele Mazzei, uno dei “papà” di FACE – comprende 32 micromotori, posti tra l’epidermide e il la struttura ossea che, in modo analogo ai muscoli facciali, permettono di controllare ogni minimo movimento del viso e generare una enorme quantità di espressioni anche molto complesse” l’automa ha gustato la visione del trailer di Morgan ed è stato filmato mentre produceva diverse espressioni del volto in reazione a quello che “vedeva”, esprimendo stati emotivi in modo analogo agli esseri umani.
FACE, acronimo di Facial Automation for Conveying Emotions, è un androide realizzato da un team di ricercatori del Centro “E. Piaggio” dell’Università di Pisa, guidati dal professor Danilo De Rossi. Il robot è un androide sociale in grado di interagire empaticamente con gli esseri umani attraverso una comunicazione non verbale. Tramite sensori posizionati sulla testa, FACE orienta il proprio sguardo verso l’interlocutore umano, ne analizza le espressioni facciali e la gestualità e ne inferisce lo stato emotivo. Sulla base dello stato mentale inferito, FACE inizia una comunicazione non verbale attraverso espressioni facciali, sguardi e ammiccamenti, tutti intesi a stabilire un dialogo empatico.
FACE è utilizzato come strumento per lo sviluppo di modelli di Intelligenza Artificiale e per lo studio dell’interazione sociale e affettiva tra uomo e robot. Il sistema cognitivo di FACE genera espressioni facciali a partire da sei stati emotivi di base: rabbia, disgusto, paura, felicità, tristezza, sorpresa. Data la natura artificiale e quindi semplificata del sistema, gli stati emotivi espressi dal robot sono più facilmente riconoscibili rispetto a quelli umani, cosa che rende FACE particolarmente adatto all’interazione con persone in grado di interpretare un numero limitato di espressioni, come sono per esempio i soggetti autistici.