Una nueva investigación de la Universidad de Southampton demuestra cómo los robots pueden alentar a las personas a asumir mayores riesgos en comparación con si nada influyera en su comportamiento. Los experimentos, que se llevaron a cabo en un escenario de juego simulado, ayudan a los expertos a comprender mejor el comportamiento de riesgo y la robótica, tanto desde el punto de vista ético como práctico.
La investigación fue dirigida por el Dr. Yaniv Hanoch, profesor asociado de gestión de riesgos de la Universidad de Southampton. Fue publicado en la revista Ciberseguridad, Comportamiento y Redes Sociales.
“Sabemos que la presión de los compañeros puede conducir a un comportamiento más arriesgado”, dijo el Dr. Hanoch. “Con la escala cada vez mayor de interacción entre humanos y tecnología, tanto en línea como físicamente, es crucial que comprendamos más acerca de si las máquinas pueden tener un impacto similar”.
El experimento
El estudio involucró a 180 estudiantes universitarios que tomaron la Tarea de Riesgo Analógico del Globo (BART), que es una evaluación por computadora que requiere que los usuarios inflen un globo en la pantalla presionando la barra espaciadora en un teclado. El globo se infla ligeramente con cada presión y los jugadores reciben un centavo cada vez en su «banco de dinero temporal». Los globos pueden explotar en cualquier momento, lo que hace que el jugador pierda dinero, pero tiene la opción de «cobrar» antes de inflar más el globo.
Un tercio de los participantes, que eran el grupo de control, se hicieron la prueba solos en sus habitaciones. Otro tercio realizó la prueba acompañado de un robot que solo brindaba instrucciones, por lo demás, en completo silencio. El grupo final, que era el grupo experimental, realizó la prueba junto con un robot que brindó instrucciones y pronunció declaraciones alentadoras, como «¿por qué dejaste de bombear?».
Este tercer grupo que fue alentado por el robot exhibió un comportamiento arriesgado más que los otros grupos, inflando más los globos. Al mismo tiempo, ganaron más dinero en comparación con los otros grupos. En cuanto a los grupos acompañados del robot silencioso y sin ningún robot, no hubo diferencia significativa entre ambos.
“Vimos a los participantes en la condición de control reducir su comportamiento de riesgo después de la explosión de un globo, mientras que aquellos en la condición experimental continuaron asumiendo tanto riesgo como antes”, dijo el Dr. Hanoch. «Entonces, recibir estímulo directo de un robot que promueve el riesgo parece anular las experiencias e instintos directos de los participantes».
Los investigadores realizarán más estudios para comprender mejor la interacción humana con otros sistemas de inteligencia artificial (IA), incluidos los asistentes digitales.
“Con la amplia difusión de la tecnología de IA y sus interacciones con los humanos, esta es un área que necesita atención urgente por parte de la comunidad investigadora”, continuó el Dr. Hanoch.
“Por un lado, nuestros resultados podrían generar alarmas sobre la posibilidad de que los robots causen daño al aumentar el comportamiento de riesgo. Por otro lado, nuestros datos apuntan a la posibilidad de utilizar robots e IA en programas preventivos, como campañas contra el tabaquismo en las escuelas, y con poblaciones de difícil acceso, como los adictos”.