jueves, 1 diciembre 2022

El ‘eye-tracking’, también en el móvil y en el ordenador

Investigadores del Instituto Smart Cities de la UPNA están desarrollando un proyecto para mejorar la precisión de los equipos de seguimiento de la mirada en dispositivos de uso ordinario. La tecnología aún está en fase incipiente, pero puede tener importantes aplicaciones para personas con discapacidad motriz muy severa, el neuromarketing o el rendimiento deportivo.

Redacción
Pamplona - 24 enero, 2022

De izda. a dcha., Galar, Paternain, Villanueva, Larumbe y Garde. (Foto: cedida)

Un grupo de investigadores del Instituto Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA) está trabajando en un proyecto para la mejora de la precisión de los sistemas de seguimiento de la mirada (eye-tracking) en dispositivos de uso cotidiano, como ordenadores portátiles o smartphones. Esta mejora “incrementaría las potenciales aplicaciones comerciales de esta tecnología y abriría la puerta a utilizar estos dispositivos en nuevos ámbitos”.

Según informó la UPNA, el seguimiento de la mirada se ha realizado históricamente con “infraestructuras complejas y muy constreñidas” para el usuario que, además, requerían que el sujeto analizado permaneciera inmóvil durante su utilización para registrar adecuadamente el movimiento de sus pupilas. Estos sistemas aún se comercializan, pero su uso se limita a ámbitos muy concretos como la interacción con la máquina por parte de usuarios con discapacidad motriz muy severa (por ejemplo, en pacientes con ELA) o el análisis de movimientos oculares en industrias como el neuromarketing o la investigación en rendimiento deportivo.

Arantxa Villanueva: “Con este proyecto, pretendemos crear una base de conocimiento sobre estos sistemas, que aún están en una fase muy incipiente”.

Arantxa Villanueva, investigadora principal del proyecto, considera que el grupo de investigación que lidera, Gaze Interaction 4 Everybody (GI4E), puede aplicar su experiencia de “más de veinte años” en el ámbito del eye-tracking para ayudar a comprender las posibilidades reales que brindan los sistemas de Inteligencia Artificial.

“La tecnología todavía está en una fase muy incipiente y lo que pretendemos con este proyecto es crear una base de conocimiento sobre estos sistemas. Queremos ver cuáles son las limitaciones de la tecnología que no se conocen de momento”, concretó.

Para lograrlo, los investigadores de la UPNA generan imágenes sintéticas que representan el rostro de un sujeto artificial, con los que pueden simular distintos tipos de miradas y someterlos posteriormente a seguimiento. “Mediante esta técnica hemos conseguido generar el mejor modelo para seguimiento de la mirada que podríamos conseguir idealmente y, a partir de ahí, estamos caracterizando sus limitaciones comparándolo con los resultados de experimentos realizados con imágenes de sujetos reales”, explicó Villanueva.

El proyecto cuenta, asimismo, con la colaboración de das-Nano como ente promotor observador y ya se han fijado algunas reuniones de coordinación para identificar posibles fórmulas de transferencia de conocimiento. Este proyecto, denominado ChETOS (Retos de un sistema de estimación de mirada empleando componentes de propósito general y redes neuronales), cuenta con financiación del Ministerio de Ciencia, Innovación y Universidades para el periodo 2021-2024.

En él trabajan, además de la propia Villanueva, otros investigadores del grupo GI4E como Rafael Cabeza, Sonia Porta, Gonzalo Garde, Andoni Larumbe, Benôit Bossavit y Arnaldo Belzunce. También participan Mikel Galar y Daniel Paternain, ambos investigadores del grupo GIARA, que aplican aproximaciones de Inteligencia Artificial para resolver el problema planteado.

APOYO DE LA INTELIGENCIA ARTIFICIAL

En la actualidad, existen muchas iniciativas en marcha en el ámbito tecnológico para intentar realizar técnicas de seguimiento de mirada con equipos más universales. Sin embargo, los resultados obtenidos hasta la fecha presentan “menor precisión” que las mediciones realizadas con equipos complejos, con márgenes de error de entre 5° y 7° (entre 2 y 3° en las investigaciones “más punteras”). Rangos que se consideran “del todo insuficientes para garantizar la utilidad de los resultados”.

El proyecto cuenta, asimismo, con la colaboración de das-Nano como ente promotor observador.

“La imagen que obtenemos de los sistemas convencionales de altas prestaciones es de muy buena calidad. Solo se captura el ojo y se diferencian perfectamente la pupila, el iris, la esclerótica, el lagrimal… Sin embargo, si tomamos la imagen de una webcam o de la cámara frontal del móvil, tenemos la imagen completa del sujeto, un fondo o una iluminación que puede ser muy variable. Y esto complica mucho la toma de datos”, explica la responsable del proyecto.

Por eso, la solución que se ha planteado en los ámbitos académicos del mundo radica en emplear algoritmos de Inteligencia Artificial (IA) para “deducir la dirección de la mirada a partir de las imágenes tomadas, de modo que el sistema autoaprenda a partir de una muestra muy amplia de sujetos analizados”. Con todo, los sistemas de Inteligencia Artificial presentan limitaciones.

“Uno de los problemas más comunes es la dificultad para determinar el desfase entre la dirección de nuestra mirada y el eje óptico de nuestro globo ocular. Cuando miramos un punto, se traza un eje de simetría que pasa por el centro de la pupila hacia el punto observado. Sin embargo, en realidad no miramos en esa dirección. Todos tenemos un eje visual, que es el que realmente representa la mirada, que une una zona muy concreta de la retina, la fóvea, con el objeto observado. Los sistemas de Inteligencia Artificial pueden determinar sin problemas el eje óptico, pero no así la dirección de la mirada”, precisó Villanueva.

Entra aquí para leer más sobre innovación.


To Top