Rana Gujral es la directora ejecutiva de Behavioral Signals, una empresa que cierra la brecha de comunicación entre humanos y máquinas al introducir inteligencia emocional, desde el habla, en conversaciones con IA.
Behavioral Signals es una startup relativamente joven que se lanzó en 2016. ¿Podría compartir la historia de génesis?
Impulsado por la pasión de llevar al mercado las innovadoras tecnologías patentadas de conversión del habla a la emoción y del habla al comportamiento, el CTO, Alex Potamianos y el científico jefe, Shri Narayanan, fundaron Behavioral Signals en 2016. Shri es Andrew J. Viterbi Profesor de Ingeniería en la Universidad del Sur de California (USC). Fundó y actualmente dirige la Laboratorio de Análisis e Interpretación de Señales (SAIL) en la USC. Alex es un innovador reconocido en el campo del procesamiento del lenguaje natural y del habla, los sistemas interactivos de respuesta de voz y la informática del comportamiento. Tiene más de 20 años de experiencia en liderazgo tanto en el aspecto corporativo como empresarial de los negocios, mientras que su experiencia incluye trabajar en AT&T Labs-Research, Bell Labs y Lucent Technologies.
Con el objetivo de mejorar y cambiar para siempre el mundo de los negocios, creemos que la tecnología está en el centro de lo que se puede lograr. Los algoritmos de Behavioral Signals analizan las emociones y los comportamientos humanos, transforman los datos en información utilizable y permiten tomar mejores decisiones comerciales y aumentar las ganancias. Hasta ahora, la emoción humana se ha considerado imposible de cuantificar e imposible de medir. Con nuestro motor de análisis patentado, medimos e interpretamos la parte del «cómo» de las interacciones humanas.
Behavioral Signals se basa en un tipo de computación afectiva de aprendizaje automático (también conocida como IA emocional). ¿Podrías explicar qué es esto?
La inteligencia artificial emocional, también llamada AI emocional o computación afectiva, se está utilizando para desarrollar máquinas que son capaces de leer, interpretar, responder e imitar el afecto humano: la forma en que nosotros, como humanos, experimentamos y expresamos emociones. ¿Qué significa esto para los consumidores? Significa que sus dispositivos, como su teléfono inteligente o parlantes inteligentes, podrán ofrecerle una interacción que se siente más natural que nunca, todo simplemente leyendo las señales emocionales en su voz.
A medida que crece nuestra dependencia de la IA, también crece la necesidad de una IA emocionalmente inteligente. Una cosa es pedirle a su asistente virtual que lea los puntajes de los juegos de hoy, pero otra cosa es confiar a sus padres ancianos al cuidado de un bot impulsado por IA. Actualmente, la IA puede hacer cosas increíbles, como diagnosticar condiciones médicas y delinear tratamientos, pero aún necesita inteligencia emocional para comunicarse con los pacientes de una manera más humana.
¿Qué otros tipos de tecnologías de aprendizaje automático se utilizan?
Cuando se trata de aprendizaje automático, utilizamos principalmente aprendizaje profundo y NLP en nuestros modelos analíticos de procesamiento de señales de comportamiento. Para explicar esto un poco mejor, hemos sido pioneros en un campo, el procesamiento de señales de comportamiento, basado en más de una década de investigación galardonada y patentada, para detectar automáticamente información codificada en la voz humana del audio y medir la calidad de interacción humana. Es una disciplina emergente que une la ingeniería con las ciencias del comportamiento y tiene como objetivo cuantificar e interpretar la interacción y la comunicación humanas mediante el uso de innovaciones informáticas y de ingeniería. El aprendizaje profundo es la herramienta que ayuda a crear mejores modelos predictivos.
¿Qué tipo de datos recoges del tono de voz?
Nuestra tecnología de inteligencia artificial de aprendizaje profundo analiza qué y cómo se dice algo, en ambos lados de una conversación, midiendo emociones y comportamientos. La gama de emociones es bastante diversa, pero lo que realmente importa es la inteligencia agregada de este análisis. Para darle un ejemplo, considere una conversación entre un empleado del banco y un cliente; podemos capturar y medir la cortesía, la compostura (calma o agitación), la empatía hacia el cliente, las reacciones del cliente y el estilo de hablar en general, como lento, rápido, comprometido o desinteresado, para calcular el puntaje de calidad de la conversación, la efectividad del resultado, y el desempeño del empleado.
¿Qué tipo de análisis de datos se realiza para predecir la intención?
La predicción de intenciones es muy similar a lo que ya se ha mencionado. Usamos señales de comportamiento en la voz para predecir la intención de un cliente de comprar un producto, renovar una suscripción o si un deudor pagará su deuda. La predicción de la intención puede ayudar a las empresas a aumentar sus índices de ventas y cobro, reducir sus costos y, en última instancia, mejorar la satisfacción del cliente.
Behavioral Signals ha sido 6 veces ganador de oro del desafío INTERSPEECH de calidad de interacciones humanas y paralingüística computacional. ¿Cuál es este desafío y cuán importante es este logro?
interdiscurso es la conferencia técnica más grande del mundo centrada en el procesamiento y la aplicación del habla. Se jacta de tener la mayor asistencia en este dominio y un número significativo de trabajos de investigación. La conferencia enfatiza enfoques interdisciplinarios que abordan todos los aspectos de la ciencia y la tecnología del habla, desde teorías básicas hasta aplicaciones avanzadas. Sus desafíos se consideran el Premio Turing en las disciplinas de reconocimiento de voz y procesamiento de lenguaje natural. Ganarlo es un reconocimiento importante a nuestro trabajo científico y nuestra capacidad única para detectar señales de datos de audio asociados con comportamientos y rasgos que impulsan la toma de decisiones humanas.
¿Qué tan rápido pueden adaptarse las señales de comportamiento a diferentes idiomas y qué tan grande es el conjunto de datos que se necesita?
Nuestra tecnología es independiente del lenguaje. Escuchamos cómo se dice algo en lugar de lo que realmente se dice. Escuchamos las emociones expresadas, que son bastante universales en todos los idiomas. Por supuesto, cada idioma tiene sus propias características únicas que pueden requerir un ajuste de nuestros algoritmos, pero la diferencia en nuestros modelos analíticos predictivos es generalmente pequeña.
¿Puede hablar sobre la última solución de Behavioral Signals, la conversación mediada por IA?
Conversaciones mediadas por IA (AI-MC) es una solución de enrutamiento de llamadas automatizada que utiliza IA emocional y datos de voz para hacer coincidir al cliente con el empleado más adecuado para manejar una llamada específica. Si volvemos al ejemplo mencionado anteriormente, del empleado bancario y el cliente, nuestra tecnología puede guiar la dinámica de la conversación con el objetivo final de mejorar el resultado, ya sea que tenga que ver con una mejor experiencia del cliente, mayores cobros o tiempos de resolución más rápidos. . Cualquiera que sea el objetivo, siempre hay un catalizador que permitiría a ambas partes alcanzar el resultado deseado. Ese factor contribuyente suele ser un proceso humano simple y natural: la afinidad o la relación que se desarrolla entre las personas. Independientemente del tipo de comunicación comercial (llamada de venta, soporte, cobro), siempre será una interacción entre humanos reales, donde rara vez la afinidad es idéntica entre dos pares de personas. Tenemos comportamientos y rasgos específicos que nos ayudan a llevarnos mejor con algunas personas que con otras. Esta coincidencia se basa en datos de perfil y nuestros algoritmos superiores desarrollados a partir de años de investigación y experiencia en PNL y procesamiento de señales de comportamiento.
Recientemente implementamos la solución AI-MC de Behavioral Signals para aumentar la eficacia y la eficiencia del centro de llamadas de un banco de la UE. El estudio de caso fue reconocido por Gartner e incluido en su Informe de adopción de IA de emoción. La solución demostró un ROI significativo con un aumento del 20 % en las solicitudes de reestructuración de deuda activa. Además, esta mejora se logró con un 7,6 % menos de llamadas, lo que generó reducciones de costos adicionales. En números absolutos, estos resultados correspondieron a una ventaja de $300 millones para el banco.
¿Hay algo más que le gustaría compartir sobre las señales de comportamiento?
Si bien nos enorgullecemos mucho de los logros de nuestra investigación, estamos igualmente agradecidos por los elogios de la industria. En el otoño de 2019, nuestra tecnología se incluyó como líder de caso de uso en el codiciado Maverick Research de Gartner que perfila tecnologías de última generación. A principios de este año, fuimos incluidos en el Hype Cycle de Gartner, donde nuestra tecnología fue calificada como ‘transformadora’. El mes pasado, figuramos en la lista de Gartner Cool Vendor 2020.
Gracias por la excelente entrevista, los lectores que deseen obtener más información deben visitar Behavioral Signals.