martes, 5 julio 2022

Un catálogo universal de expresiones faciales vinculadas a emociones

La base de datos puesta en marcha por investigadores del Instituto Smart Cities (ISC) de la UPNA, en colaboración con la productora Dr. Platypus and Ms Wombat, la Universidad de Navarra, CREENA y ADItech, se enmarca dentro del proyecto Emotional Films. Con el fin de conseguir una tecnología "lo más inclusiva posible y libre de sesgos", el primer reto será incorporar este desarrollo en una producción audiovisual de animación. Próximamente, también se extrapolará a sectores como el médico, el turístico o el educativo.

Redacción
Pamplona - 2 febrero, 2022

En la actualidad, los responsables del proyecto "están trabajando para evitar sesgos demográficos" en el sistema. (Foto: cedida)

Investigadores del Instituto Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA) han puesto en marcha la aplicación web Emotional Films, de acceso universal, con el objetivo de generar una gran base de datos de expresiones faciales vinculadas a emociones. En un comunicado remitido este lunes, la plantilla hizo un llamamiento “a la colaboración ciudadana para  conseguir una tecnología lo más inclusiva posible y libre de sesgos”. La iniciativa se enmarca dentro del proyecto Emotional Films, cuyo primer reto es desarrollar la tecnología necesaria para generar contenidos audiovisuales -películas, videojuegos y avatares virtuales, entre otros- “que variarán en función de las emociones de los espectadores”.

El equipo ya ha desarrollado la tecnología requerida para reconocer emociones a partir de expresiones faciales. Ahora, los responsables del proyecto “están trabajando para evitar los sesgos demográficos” del sistema de Inteligencia Artificial. “Si solo alimentamos al sistema con emociones representadas por personas caucásicas, por poner un ejemplo, el sistema no será capaz de analizar de manera precisa las emociones de otras razas, por lo que necesitamos cubrir todos los perfiles para limitar esos sesgos y que el sistema funcione correctamente”, explicó Mikel Galar, investigador de la UPNA y director técnico del proyecto.

Emotional Films, según comunicó la institución académica, también tendrá aplicaciones en otros sectores como el médico, turístico o educativo. “Identificar las emociones que experimenta una persona que visita, por ejemplo, un determinado lugar, permitirá ofrecer experiencias personalizadas en el campo del turismo de nueva generación con la implementación de aplicaciones o dispositivos in situ“, detalló la UPNA. Asimismo, la iniciativa “también permitirá reforzar el trabajo de psicólogos o psiquiatras en la atención a sus pacientes o, en general, aportar nuevas herramientas a profesionales de multitud de industrias en las que inferir las emociones del usuario puedan ser factores de interés o humanización“.

El proyecto Emotional Films surgió a finales de 2019, promovido por la productora de videojuegos y cine de animación navarra Dr. Platypus and Ms. Wombat.

Emotional Films surgió a finales de 2019, promovido por la productora de videojuegos y cine de animación navarra Dr. Platypus and Ms. Wombat, “a partir de la evidencia de que el desarrollo tecnológico en el ámbito del aprendizaje profundo (deep learning) podría hacer viable producir contenidos audiovisuales que varíen en función de las emociones del espectador”. “Poder realizar películas, videojuegos o cualquier otro contenido que reaccione en tiempo real a las emociones de los usuarios son algunas de las fronteras que estamos cruzando y que, confiamos, posicionen a la industria de Navarra y a nuestros investigadores en el exigente mercado internacional”, destacó Carlos F. De Vigo, CEO de la productora y vicepresidente del Clúster Audiovisual de Navarra (Clavna).

EXPRESIONES EN TIEMPO REAL

Para conseguir una muestra “suficientemente amplia” de individuos, el equipo de investigación optó por una doble vía. Por una parte, instalarán un set de rodaje en la UPNA, donde a partir de marzo se registrarán las expresiones faciales de voluntarios que contemplen una serie de vídeos seleccionados para provocar distintas reacciones emocionales. “Esta opción tiene la ventaja de que nos permitirá conseguir imágenes de muy alta calidad y desde distintos ángulos, porque instalaremos un total de nueve cámaras en el set. Pero, lógicamente, es complejo conseguir que la gente se desplace hasta el set y planificar los rodajes de un volumen considerable de personas”, desgranó Galar.

Por eso, la segunda vía para la captación de datos es una aplicación web desarrollada “para que pueda ser accesible desde cualquier navegador y dispositivo con cámara frontal integrada”. La aplicación permite, previo registro del usuario, grabar “en tiempo real” expresiones faciales, además de otros aspectos como la luz ambiental. Posteriormente, la aplicación registra los datos en la base que alimentará el modelo de Inteligencia Artificial, “respetando todos los requerimientos en materia de protección de datos”.

El equipo de investigación instalará un ‘set’ de rodaje en la UPNA, donde a partir de marzo se registrarán las expresiones faciales de las personas voluntarias.

El equipo técnico que desarrolló la aplicación estuvo formado por los investigadores Mikel Galar, Daniel Paternain y Arantxa Villanueva, todos ellos adscritos al ISC, así como Álvaro Donamaría, Ibon Escartín, Gonzalo Garde, Iñaki Hernández, Iñaki Hulsman, Rubén Pascual, Javier Díez y Álvaro Sola.

Para conseguir una muestra de personas “lo más amplia posible”, la UPNA adjudicó mediante concurso público la confección de la muestra de población a una tercera empresa, que seleccionará perfiles variados en ciudades como Madrid o Barcelona. Además, el equipo de investigación de la UPNA “está ideando fórmulas para difundir e incentivar el uso de la aplicación entre el público general”.

APLICACIONES

El sistema que está desarrollando el equipo de la UPNA “permitirá procesar la imagen del usuario en tiempo real a través de una red neuronal convolucional, que analiza la imagen y la categoriza en función de las seis emociones básicas: felicidad, tristeza, miedo, sorpresa, asco e ira“. A partir de la información registrada, el sistema “puede tomar de manera autónoma decisiones respecto a variables del contenido en el que se aplique”. De entre los “muchos usos previstos”, el primero donde se incorporará será en una producción audiovisual de animación.

“Uno de los primeros resultados que esperamos del proyecto es una pieza audiovisual que haga uso de esta tecnología y sea demostrativo de las oportunidades que el sistema brinda -resume Mikel Galar-. Nuestra intención para el futuro es desarrollar un paquete de herramientas que esté al alcance de otros creadores del mundo audiovisual que quieran generar contenidos que reaccionen a las emociones del espectador”.

El consorcio de investigación que gestiona el proyecto está formado por diferentes entidades públicas y privadas, algunas de ellas pertenecientes al Sistema Navarro de I+D+i, como Dr. Platypus & Ms. Wombat, empresa audiovisual promotora del proyecto y titular de los derechos de explotación de la tecnología resultante; la UPNA, desarrolladora tecnológica; la Universidad de Navarra; el Centro de Recursos de Educación Especial en Navarra (CREENA), como apoyo pedagógico; y ADItech, encargada de las labores de coordinación, la inclusión de la dimensión de género en la investigación y la difusión del proyecto.

Emotional Films fue seleccionado dentro de la convocatoria de proyectos Estratégicos de I+D del Gobierno de Navarra en el año 2020 e incluye la participación de más de una veintena de investigadores en los campos de la informática, aprendizaje automático (machine learning) y aprendizaje profundo (deep learning), así como ingenieros, sociólogos, pedagogos, psicopedagogos y expertos en neuromarketing que, en la actualidad, están analizando potenciales aplicaciones de esta nueva tecnología. En 2019, el proyecto fue galardonado con el Accésit Comunicación Audiovisual en el concurso científico Science Ekaitza.

Entra aquí para leer más sobre innovación.


To Top