Disgusto, miedo, tristeza, alegría, sorpresa, enojo y neutro (serio) son las emociones que reconoce esta red neuronal en el rostro de las personas.
Su captura se realiza vía live stream por medio de la webcam del computador, inmediatamente el sistema procesa cada uno de los rostros encontrados en la imagen y predice la emoción en forma de emoticono.
Esta red neuronal fue desarrollada por Orlando Hernández Núñez, estudiante de primer semestre de Administración de Sistemas Informáticos, quien lo expuso durante la XIII Feria ExpoASI 2017, la cual busca darle visibilidad local, regional y nacional a este programa curricular.
“Lo que hace la red a través del modelo es predecir una emoción en cada uno de los rostros encontrados. El sistema tiene porcentaje de acierto del 82,4 %, de acuerdo al conjunto de datos que contiene”, indica el estudiante.
Para que el sistema funcione correctamente, el usuario debe poner su rostro frente al computador y no girar la cabeza hacia ninguno de los costados, porque al hacerlo el programa no detecta el rostro.
Funcionamiento
El investigador precisó que con el software creado se busca encontrar las relaciones entre las emociones y el rendimiento académico de un estudiante de colegio.
Para usarlo, el software debe ser configurado de forma manual en cada uno de los computadores. Posteriormente se debe ejecutar para poder hacer las predicciones correspondientes.
Para generar este modelo, se utilizó un conjunto de datos llamado "The Extended Cohn-Kanade Dataset (CK+): A complete dataset for action unit and emotion-specified expression", que consta de 593 imágenes de 27 rostros de personas reales, de las cuales solo 327 corresponden a una emoción (disgusto, miedo, tristeza, alegría, sorpresa y enojo).
Después de ejecutar este programa en un computador, solo basta que los usuarios se acerquen a la cámara e inmediatamente se realiza la predicción.
Limitaciones
El investigador Hernández Núñez manifestó que el sistema presenta algunas limitaciones, entre estas que las condiciones ambientales de la grabación afectan la predicción (se debe hacer preferiblemente en un lugar cerrado y no al aire libre).
Otra de las restricciones que identificó es que la expresión de una emoción no solo se encuentra en el rostro, que es lo que se limita este sistema.
“Por último es que el uso de un dataset (conjunto de datos) tan pequeño no permite tener muchas muestras, lo que implica ampliar su capacidad”.
Este trabajo contó con el apoyo de los profesores Néstor Darío Duque Méndez y Valentina Tabares Morolas, de Grupo de Ambientes Inteligentes Adaptativos (GAIA) de la U.N. Sede Manizales.