Investigadores crean robot que muestra empatía básica a un socio robot

Un estudio reciente logrado en dotar a un robot de una forma rudimentaria de empatíalo que permite al robot predecir los objetivos y acciones de su compañero robótico.

Un equipo de ingenieros de la Facultad de Ingeniería y Ciencias Aplicadas de la Universidad de Colombia diseñó un robot que puede predecir con éxito las acciones y objetivos de un robot asociado en función de unos pocos fotogramas de un video. Los ingenieros argumentan que el robot y su IA muestran una forma primitiva de empatía y que la investigación futura en esta área podría ayudar a dar a los robots una «teoría de la mente».

El estudio reciente fue dirigido por el profesor Hod Lipson del Creative Machines Lab de Columbia Engineering. La investigación realizada por Lipson y su equipo es solo una parte de un esfuerzo académico más amplio para permitir que los robots comprendan y predigan los objetivos de otros robots y, potencialmente, de los humanos. Esta predicción debe hacerse en su totalidad a través del análisis de los datos recopilados por los sensores, datos visuales primarios.

Robot Observando Robot

El equipo de investigadores construyó un robot para operar dentro de un parque infantil de aproximadamente 6 pies cuadrados de área. El robot estaba programado para buscar círculos verdes y moverse hacia esos círculos verdes, pero no todos los círculos verdes dentro del parque eran visibles para el robot. Algunos de los círculos verdes objetivo eran fáciles de ver desde la posición inicial del robot, pero otros círculos estaban ocultos detrás de una gran caja de cartón.

Se programó un segundo robot para observar al primer robot, observándolo en el corral durante aproximadamente dos horas. Después de observar a su compañero robot, el robot observador pudo predecir tanto el objetivo como los caminos de su compañero la mayor parte del tiempo. El bot observador pudo predecir correctamente la ruta tomada por el otro bot con un 98 % de precisión, a pesar de que el bot observador desconocía la incapacidad del bot explorador para ver detrás de la caja.

Uno de los autores principales del estudio, Boyuan Chen, explicó a través de Ciencia diaria que los resultados del estudio demuestran la capacidad de los robots para interpretar el mundo desde la perspectiva de otro robot.

“La capacidad del observador de ponerse en el lugar de su compañero, por así decirlo, y comprender, sin ser guiado, si su compañero podía o no ver el círculo verde desde su punto de vista, es quizás una forma primitiva de empatía”. explicó Chen.

El equipo de investigación esperaba que el robot observador pudiera predecir las acciones a corto plazo del robot explorador, pero lo que encontraron fue que el robot observador no solo podía predecir acciones a corto plazo, sino que podía predecir con precisión acciones a más largo plazo. acciones basadas en unos pocos fotogramas de vídeo.

«Teoria de la mente»

Evidentemente, los comportamientos exhibidos por el robot explorador son más simples que muchas acciones realizadas por humanos, y por lo tanto, predecir los objetivos y comportamientos de los humanos está bastante lejos. Sin embargo, los investigadores argumentan que lo que es común entre predecir las acciones de un humano y las acciones de un robot es emplear una «Teoría de la Mente». La investigación psicológica sugiere que los humanos comienzan a desarrollar una teoría de la mente alrededor de los tres años. Una teoría de la mente es necesaria para la cooperación, la empatía y el engaño. El equipo de investigación espera que una mayor investigación sobre la tecnología que impulsa las interacciones entre sus robots ayude a los científicos a desarrollar robots aún más sofisticados.

Como se mencionó, mientras que la empatía generalmente se conoce como un rasgo positivo que permite la cooperación, también se requiere para acciones más negativas como el engaño. Para engañar con éxito a alguien, debes comprender sus deseos e intenciones. Esto abre algunas preguntas éticas, ya que una vez que los robots pueden engañar potencialmente a los humanos, ¿qué evitará que sean empleados por malos actores para manipular y extorsionar a las personas?

Si bien el robot observador fue entrenado exclusivamente en datos de imágenes, Lipson cree que, en principio, se podría diseñar un sistema predictivo similar basado en el lenguaje humano, y señala que las personas a menudo imaginan cosas en su mente, pensando visualmente.

Los esfuerzos del equipo de investigación de Colombia son parte de un impulso mayor para dotar a la IA de una teoría de la mente y la empatía. Euan Matthews, director de IA e innovación en Contact Engine, argumentado recientemente que para que las IA se vuelvan más empáticas, deberán poder considerar múltiples intenciones, no solo una. Los humanos con frecuencia tienen múltiples intenciones, a veces deseos y sentimientos contradictorios sobre un tema, y ​​las IA deberán volverse más flexibles al tratar con la intencionalidad humana.

Deja un comentario