Parece que el uso de la inteligencia artificial en la tecnología de reconocimiento facial es una de las que más ha crecido hasta el momento. Como ZDNet notas, hasta ahora empresas como microsoft ya han desarrollado una tecnología de reconocimiento facial que puede reconocer la expresión facial (FR) con el uso de herramientas de emoción. Pero el factor limitante hasta ahora ha sido que estas herramientas se limitaron a ocho, los llamados estados centrales: ira, desprecio, miedo, asco, felicidad, tristeza, sorpresa o neutralidad.
Ahora da un paso al desarrollador tecnológico japonés fujitsucon tecnología basada en IA que lleva el reconocimiento facial un paso más allá en el seguimiento de las emociones expresadas.
La tecnología FR existente se basa, como explica ZDNet, en «identificar varias unidades de acción (AU), es decir, ciertos movimientos de los músculos faciales que hacemos y que pueden vincularse a emociones específicas». En un ejemplo dado, “si tanto el AU ‘levantando la mejilla’ como el AU ‘tirando la comisura de los labios’ se identifican juntos, la IA puede concluir que la persona que está analizando es feliz.
Como explicó un portavoz de Fujitsu, “el problema con la tecnología actual es que la IA debe entrenarse en grandes conjuntos de datos para cada AU. Necesita saber cómo reconocer una UA desde todos los ángulos y posiciones posibles. Pero no tenemos suficientes imágenes para eso, por lo que, por lo general, no es tan preciso”.
Se necesita una gran cantidad de datos para entrenar a la IA para que sea eficaz en la detección de emociones, es muy difícil para el FR actualmente disponible reconocer realmente lo que siente la persona examinada. Y si la persona no está sentada frente a la cámara y mirando directamente a ella, la tarea se vuelve aún más difícil. Muchos expertos han confirmado estos problemas en algunos investigación reciente.
Fujitsu afirma haber encontrado una solución para aumentar la calidad de los resultados del reconocimiento facial en la detección de emociones. En lugar de usar una gran cantidad de imágenes para entrenar la IA, su herramienta recién creada tiene la tarea de «extraer más datos de una imagen». La compañía llama a esto «proceso de normalización», que consiste en convertir imágenes «tomadas desde un ángulo particular en imágenes que se asemejan a una toma frontal».
Como explicó el portavoz, “Con el mismo conjunto de datos limitado, podemos detectar mejor más AU, incluso en imágenes tomadas desde un ángulo oblicuo, y con más AU, podemos identificar emociones complejas, que son más sutiles que las expresiones centrales actualmente analizadas. ”
La compañía afirma que ahora puede «detectar cambios emocionales tan elaborados como la risa nerviosa, con una tasa de precisión de detección del 81%, un número que se determinó a través de ‘métodos de evaluación estándar'». En comparación, según investigación independientelas herramientas de Microsoft tienen una tasa de precisión del 60% y también tuvieron problemas para detectar emociones cuando trabajaba con imágenes tomadas desde ángulos más oblicuos.
Como aplicaciones potenciales, Fujitsu menciona que sus nuevas herramientas podrían, entre otras cosas, usarse para la seguridad vial «al detectar incluso pequeños cambios en la concentración de los conductores».