Investigadores de la Facultad de Informática de la Universidad Politécnica de Madrid (UPM) han desarrollado Rfuzzy, una aplicación que permite reconocer las emociones humanas a través del estudio automatizado de la voz.
Esta aplicación, implementada sobre el lenguaje de programación Prolog (que utiliza la lógica difusa y se usa principalmente en aplicaciones de Inteligencia Artificial y Sistemas Expertos para potenciar la inteligencia de los robots), analiza las medidas sonoras de una conversación y es capaz de distinguir las emociones escondidas en una oración, pudiendo determinar si una persona está triste, asustada, alegre o nerviosa. La aplicación puede precisar, incluso si la emoción no está clara, el porcentaje de adecuación del hablante a cada emoción.
___
Fuente: UPM
No hay comentarios:
Publicar un comentario