Condividi

Usa, pc decodificano facce umane

È di poche settimane fa la notizia che la startup californiana Emotient sta lavorando all’elaborazione di un software per i Google Glass che consenta di interpretare le espressioni facciali.

Usa, pc decodificano facce umane

È di poche settimane fa la notizia che la startup californiana Emotient sta lavorando all’elaborazione di un software per i Google Glass che consenta di interpretare le espressioni facciali. Nella stessa direzione si muove anche la ricerca di una équipe di neuroscienziati, cognitivisti e ingegneri informatici dell’Università dell’Ohio. Il team ha scoperto infatti il modo di far riconoscere a un computer 21 distinte espressioni del viso, correlate a emozioni semplici o anche ad aggregati complessi di più emozioni. L’esito della ricerca, descritto nell’ultimo numero di «Proceedings of the National Academy of Sciences», è stato salutato come un vero punto di svolta nel campo dell’analisi cognitiva. Finora infatti ci si era limitati a lavorare su sei emozioni base: felicità, tristezza, paura, rabbia, sorpresa e disgusto, mentre ora il numero di emozioni decodificabili da una macchina sono aumentate di più del triplo. “Siamo andati ben oltre la lettura delle espressioni del viso per semplici emozioni come ‘sono felice’ o ‘sono triste’. Abbiamo riscontrato una forte congruenza nel modo in cui le persone muovono i propri muscoli facciali nell’esprimere 21 categorie di emozioni” ha dichiarato Aleix Martinez, professore di ingegneria informatica all’Università dell’Ohio. “Il nostro lavoro” ha osservato ancora “ci dice che queste 21 espressioni vengono manifestate quasi nella stessa maniera da ogni individuo, perlomeno nella nostra cultura”. I ricercatori hanno prima raccolto le fotografie delle espressioni di 230 volontari sottoposti a differenti stimoli verbali, quindi hanno proceduto a uno scrupoloso esame delle 5mila immagini risultanti, focalizzando l’attenzione sulle variazioni di indicatori fondamentali dell’espressione quali gli angoli della bocca o il margine esterno delle sopracciglia. I dati sono poi stati elaborati mediante il Facial Action Coding System (FACS), sistema per la codifica delle espressioni facciali elaborato nel 1978 da due docenti universitari statunitensi. Una volta individuate dunque con sicurezza le espressioni delle emozioni semplici, come, ad esempio, “felicità” o “sorpresa”, si è poi passati a determinare quelle complesse che scaturivano, come “felicemente sorpreso”, da una combinazione delle prime due.

http://www.nzherald.co.nz/technology/news/article.cfm?c_id=5&objectid=11230071

Commenta