Descubriendo la esencia de las caras

Las máquinas todavía no han podido superar la capacidad de los hombres para reconocer las caras, pero se están acercando. En los últimos meses ha coincidido la presentación de diversos sistemas de reconocimiento facial, como el propuesto por dos psicólogos británicos que aseguran poder crear imágenes con “la esencia visual de las caras”, o el desarrollado por científicos españoles para distinguir expresiones como la tristeza y la alegría.




La técnica ideada por los investigadores Rob Jenkins y Mike Burton, de la Universidad de Glasgow (Reino Unido), permite identificar las caras sin margen de error. El método consiste en crear una sola imagen compuesta a partir de varias fotografías distintas de una misma persona. Los psicólogos han utilizado como base de datos la incluida en la página web de celebridades “My Heritage”, en la que los internautas pueden descubrir a qué famoso se parecen más.

Los dos científicos dispusieron de un conjunto de 500 imágenes: 20 fotos de 25 personajes diferentes, todos varones, como John Travolta y Nicholas Cage (actores que por cierto “cambiaron” sus rostros en la película Cara a Cara). Al introducir en el programa de identificación las fotografías aisladas, el software de la plataforma identificó correctamente al 54%, pero al poner las imágenes compuestas -creadas realizando la media entre todas las disponibles para un mismo famoso-, el programa acertó al 100%.

La técnica de Jenkins y Burton fue diseñada originalmente como un modelo para explicar el aprendizaje facial humano, y el investigador señala que no está claro todavía si el cerebro va aprendiendo a reconocer caras “simplemente haciendo la media o están implicadas operaciones más complejas”. De lo que están seguros es que algún tipo de abstracción de imágenes tiene lugar. La idea central, añade, es que la representación que se hace de un determinado rostro se redefine mejor “cuanto más tiempo se expone ante nosotros, ya que vamos incorporando cada vez más información”.

Además de por la experiencia, el reconocimiento de las caras también está determinado por los genes, según indican estudios como el presentado recientemente por científicos de la Universidad de Michigan (EEUU) en la revista The Journal of Neuroscience. El equipo liderado por el psicólogo Thad Polk, a partir de un trabajo con hermanos gemelos, ha demostrado la importancia de la genética en la actividad neuronal y cerebral ante estímulos como ver una cara.

“El dialogo entre psicólogos e ingenieros puede ser fructífero”, dice Jenkins, y el análisis de algunas alteraciones de la salud relacionadas con el reconocimiento facial parecen darle la razón. Es el caso de la prosopagnosia, un raro trastorno que impide a los que lo padecen reconocer los rostros, aunque los vean. Descubrir los mecanismos implicados en esta alteración puede ayudar a resolver algunos de los retos a los que hoy se enfrentan los sistemas de inteligencia artificial, y por eso centros de investigación como el Instituto Tecnológico de Massachusetts (EEUU) han iniciado estudios al respecto.

En cualquier caso, los campos de batalla actuales de los modelos de reconocimiento facial son las variables ópticas de las imágenes y sus distintas resoluciones. “Estos programas suelen requerir de una gran colección de imágenes por persona, que además son tomadas con distintos ángulos, calidades e iluminaciones, y a menudo resultan caros”, dice Hung-Son Le, un estudiante de doctorado de la universidad sueca de Umea que acaba de presentar una tesis doctoral en la que plantea un nuevo método “que acaba con los problemas tradicionales de los sistemas de reconocimiento facial”.

Los algoritmos o cálculos matemáticos desarrollados por Le permiten reconocer una cara con sólo una fotografía, mejorando el contraste de aquellas imágenes que están sobreexpuestas o con subexposición. Esto permite visualizar mejor algunos detalles que, de otro modo, resultarían difíciles de identificar. El modelo no requiere readaptarse para “conocer” nuevas imágenes, ni se ve afectado por las distintas expresiones de los sujetos. Según su creador esta técnica ha demostrado “superar a los competidores líder” al ponerlo a prueba en bases de datos internacionales como FERET (Facial Recognition Technology) o la de la Universidad de Yale (EEUU).

Los investigadores utilizan estas bases de datos para contrastar sus resultados, y la elección de una u otra depende del análisis que se vaya a realizar. Si FERET incluye 14.126 imágenes de 1.199 individuos tomadas en días e incluso en años diferentes, Yale dispone, por una parte, de 165 imágenes de 15 personas con distintas expresiones y condiciones de luz, y por otra, de 5.760 imágenes de 10 sujetos en 9 poses distintas con 64 condiciones de iluminación diferentes. En el caso del estudio de Le se han utilizado las dos.

Respecto a las posibles aplicaciones comerciales, el estudiante de doctorado ha indicado que los clientes de las agencias de contactos podrían emplearlo para encontrar a una pareja que se parezca a su actriz o actor favorito. Su trabajo ya ha servido para poner en marcha el desarrollo de un dispositivo de reconocimiento facial por internet.

En este campo, la compañía Microsoft acaba de patentar para los teléfonos móviles un sistema parecido denominado Image-based Face Search (reconocimiento facial basado en imágenes). El usuario debe introducir la foto de una persona, tomada por ejemplo con el móvil, y el programa le devuelve los rostros similares encontrados en una base de datos. La aplicación permite además puntuar los rasgos faciales de una determinada imagen y guardar sus preferencias, lo que puede servir a una persona para buscar a su pareja ideal.

Otras de las aplicaciones que ya incorporan algunos móviles y otros dispositivos con cámara -como los ordenadores portátiles-, es un software que permite utilizar los rasgos faciales como forma de autentificarse. El usuario simplemente saca su propia foto y en menos de un segundo un programa informático se encarga de compararla con la que tiene almacenada para, sin necesidad de una clave, darle acceso a la unidad.

En nombre de la seguridad, herramientas de control

El uso de los programas de reconocimiento facial en diversos departamentos de policía es cada vez más frecuente, especialmente en Estados Unidos. Recientemente se ha hecho público que el FBI está invirtiendo millones de dólares en la construcción de la base de datos biométrica más grande del mundo, dentro del proyecto denominado Next Generation Identification (Identificación de Próxima Generación). Su objetivo es facilitar la identificación de multitud de personas en numerosos países mediante las imágenes de la cara, de las palmas de la mano y con las huellas dactilares, (y en contra de algunas voces que denuncian un excesivo control policial).

En el caso de España, los cuerpos de seguridad del Estado todavía no trabajan con técnicas de reconocimiento facial y bases de datos tan desarrolladas como las que ya disponen para las huellas dactilares (SAID) y de balística (SAIB). Carlos Olvera, del Servicio de Criminalística de la Guardia Civil, explica que cuando lo solicita la autoridad judicial lo que sí realizan son estudios antropométricos, para determinar, por ejemplo, si ha habido cambios entre los rostros de una persona sospechosa a lo largo del tiempo. También utilizan el programa informático FACET para elaborar los retratos robot. Con la ayuda de los testigos -que suelen describir el triángulo formado por los ojos, la nariz y la boca-, se diseña el rostro del individuo sospechoso, “y si fuera necesario se añaden otros elementos con el Photoshop, como cicatrices o tatuajes”.

La Policía Nacional también utiliza esos sistemas, aunque Ramón Fernández, jefe de la sección de Antropología de la Comisaría General de Policía Científica, reconoce que todavía no han encontrado ningún programa de reconocimiento facial realmente eficaz. No obstante, dice Fernández, “estamos participando en un grupo de trabajo de la Unión Europea para desarrollar un software fiable de biometría del rostro”, dentro del Foro para la Innovación e Investigación en Seguridad Europea (ESRIF).

Además del tema de seguridad, la identificación facial sirve para funciones tan dispares como confirmar si una persona es mayor de edad y puede comprar tabaco, circunstancia que detectan algunas máquinas expendedoras de Japón, o si es el titular de una tarjeta de crédito para facilitarle dinero en un cajero. En la última feria SIMO de Madrid algunas entidades bancarias presentaron prototipos que, una vez perfeccionados, podría emplearse en el futuro para que los clientes puedan sacar dinero sin necesidad de claves de acceso, simplemente “por la cara”.

La mayoría de estos programas tienen como objetivo reconocer la identidad de una persona, por lo que se centran en buscar las diferencias entre los distintos rostros. Otros sistemas, por el contrario, tratan de identificar los puntos en común de las caras humanas, abstrayéndose de sus particularidades individuales. Por ejemplo, los científicos españoles Luis Baumela y Enrique Muñoz, de la Universidad Politécnica de Madrid, y José Miguel Buenaposada, de la Universidad Rey Juan Carlos, han desarrollado un software que permite reconocer en tiempo real, y con una probabilidad de acierto cercana al 90%, seis expresiones faciales: la sorpresa, el miedo, la alegría, la tristeza, la repugnancia y el enfado. Los bebés entre los tres y doce meses de vida ya manifiestan estas seis emociones en sus rostros, según un estudio publicado recientemente por el Instituto del Bebé Nuk en colaboración con psicólogos de la UNED y las universidades de Murcia y Valencia.

El algoritmo creado por el equipo de Baumela cuantifica los elementos más expresivos de la cara, como los ojos, las cejas o la boca, que se analizan mediante unos recuadros. Las imágenes obtenidas fueron contrastadas con las de la base de datos Cohn-Kanade, integrada por cerca de 500 imágenes con diversas expresiones de 100 estudiantes universitarios. El investigador explica que esta tecnología la podrían emplear empresas que venden productos por internet, para detectar, por ejemplo, los gestos que hace el comprador, así como la industria de los videojuegos y mundos virtuales como Second Life, “para dotar de más realismo a los avatares que representan a los usuarios”.

La aplicación fundamental de este tipo de sistemas, concluye el investigador, es la construcción de lo que se conoce como “interfaces multimodales”. Estos permitirán al ser humano “en un futuro no muy lejano” interactuar con las máquinas de una forma mucho más natural, es decir, “como lo hacemos entre nosotros: mediante la voz y con la información visual que proporcionan los gestos y las expresiones de la cara”.