l

la fundación es una organización sin fines de lucro que se propone contribuir al mejoramiento de la la vida de las personas, organizaciones y comunidades

Como organización forma parte de una Red Internacional que reúne personas y grupos de Francia, Alemania, Suiza, España, Brasil, Colombia, que promueve la Economía Solidaria, el Desarrollo Social Local, la Salud Comunitaria, el abordaje colaborativo de los conflictos, los Diálogos Públicos y las formas creativas de abordar los desencuentros humanos

Podrán visualizar más en detalle algunas de estas dimensiones en nuestro site: www.moiru.com.ar

noviembre 09, 2008

Santa Fe: diseñan un software que reconoce emociones en forma automática - La Región - LaCapital.com.ar
Santa Fe- Científicos del Conicet y de la Universidad Nacional del Litoral (UNL) diseñaron un software que “reconoce emociones automáticamente” y que, según sus creadores, “puede mejorar la interacción entre las personas y las máquinas”.

El software procesa la señal de la voz del hablante para identificar automáticamente la emoción que transmite esa alocución.

“Cuando uno habla dice mucho más que palabras porque hay características de la forma de hablar que delatan nuestro enojo, miedo o alegría”, explican los investigadores.

A diferencia de los modelos de reconocimiento del habla, como los que permiten el marcado por voz en los celulares, este sistema no trata de identificar qué se dice sino cómo se lo dice.

Es decir, intenta descifrar la información implícita en la señal que refiere al estado emocional de la persona que habla.

Luego de experimentar con dos modelos estadísticos de procesamiento diferentes, los investigadores obtuvieron resultados satisfactorios logrando hasta un 76 por ciento de reconocimientos correctos al utilizar siete emociones y un 97 por ciento cuando usaron sólo tres.

“Es un área de investigación que ha cobrado fuerte interés en los últimos años y aún no hay ningún desarrollo comercial disponible. Particularmente, el reconocimiento de las emociones es de gran interés para mejorar la interacción hombre-máquina”, explicó la estudiante Belén Crolla, del Grupo de Investigación de Señales e Inteligencia Computacional de la Facultad de Ingeniería y Ciencias Hídricas (FICH) de la UNL y el Conicet.

El trabajo fue presentado en la 34º Conferencia Latinoamericana de Informática organizada por la UNL, la Universidad Tecnológica Nacional (UTN) y el Conicet, entre otras instituciones.

El proyecto consistió en estudiar la información implícita en las señales de voz.

Para ello generaron un modelo de reconocimiento automático de las emociones clasificadas como primarias: alegría, ira, miedo, aburrimiento, tristeza y disgusto; además del estado neutral.

El modelo consiste en una primera etapa de procesamiento de la señal del habla y una segunda de clasificación que constituye el sistema inteligente propiamente dicho.

Del total de datos que presenta la señal, el clasificador diseñado toma en cuenta 12 características para ser evaluadas.

“El mayor desafío para este proyecto fue lograr que el sistema funcione con diferentes hablantes manteniendo un alto porcentaje de acierto”, contó Crolla.

Para testear el funcionamiento, los investigadores realizaron experimentos con un importante conjunto de frases registradas por la Universidad de Berlín. En total disponían de 535 alocuciones que incluían frases expresadas en las seis emociones primarias y la emoción natural.

“Trabajamos con este corpus de emociones porque son muy costosos y difíciles de conseguir. Este en particular es muy completo, está grabado con gran calidad y, fundamentalmente, porque cuenta con diez voces de locutores diferentes, cinco femeninos y cinco masculinos”, detalló la Crolla.

A fin de mejorar las características del reconocedor, los investigadores plantean modificaciones y nuevas experiencias para optimizar su eficiencia.

“Vamos a incorporar características prosódicas para mejorar el reconocedor y poder obtener una mayor tasa de precisión. También se va a evaluar este mismo sistema en otros idiomas”, adelantó la investigadora.

Dado que no se encuentra disponible un corpus de emociones en español, el equipo encontró una solución ingeniosa: trabajar con fragmentos de películas.

“Vamos a armar un corpus con películas argentinas. Sacaremos fragmentos de distintas emociones para ver si logramos la misma tasa de reconocimiento. Si varía de acuerdo al idioma, vamos a adaptar el reconocedor para que pueda aplicarse al español”, explicó. (Télam)

No hay comentarios.: