Un estudio sugiere que los robots son más persuasivos cuando fingen ser humanos

Los avances en inteligencia artificial han creado bots y máquinas que potencialmente pueden pasar por humanos si interactúan con personas exclusivamente a través de un medio digital. Recientemente, un equipo de investigadores de informática ha estudiado cómo interactúan los robots/máquinas y los humanos cuando los humanos creen que los robots también son humanos. Según lo informado por ScienceDailylos resultados del estudio encontraron que las personas encuentran que los robots/chatbots son más persuasivos cuando creen que los bots son humanos.

Talal Rahwan, profesor asociado de Ciencias de la Computación en NYU Abu Dhabi, dirigió recientemente un estudio que examinó cómo los robots y los humanos interactúan entre sí. Los resultados del experimento se publicaron en Nature Machine Intelligence en un informe llamado Transparencia-Eficiencia Compensación en la Cooperación Hombre-Máquina. Durante el curso del estudio, se instruyó a los sujetos de prueba para que jugaran un juego cooperativo con un compañero, y el compañero puede ser un humano o un bot.

El juego fue un giro en el clásico Dilema del Prisionero, donde los participantes deben decidir si cooperar o no o traicionar al otro en cada ronda. En el dilema del prisionero, una de las partes puede optar por desertar y traicionar a su socio para lograr un beneficio a costa del otro jugador, y solo mediante la cooperación ambas partes pueden asegurarse la ganancia.

Los investigadores manipularon a sus sujetos de prueba al proporcionarles información correcta o incorrecta sobre la identidad de su pareja. A algunos de los participantes se les dijo que estaban jugando con un bot, a pesar de que su compañero era en realidad humano. Otros participantes se encontraban en la situación inversa. En el transcurso del experimento, el equipo de investigación pudo cuantificar si las personas trataban a sus parejas de manera diferente cuando les decían que sus parejas eran bots. Los investigadores rastrearon el grado en que existía algún prejuicio contra los bots y cómo estas actitudes impactaban en las interacciones con los bots que se identificaban.

Los resultados del experimento demostraron que los bots eran más efectivos para generar la cooperación de sus socios cuando el humano creía que el bot también era humano. Sin embargo, cuando se reveló que el bot era un bot, los niveles de cooperación cayeron. Rahwan explicó que, si bien muchos científicos y especialistas en ética están de acuerdo en que la IA debe ser transparente con respecto a cómo se toman las decisiones, no está tan claro que también deban ser transparentes acerca de su naturaleza cuando se comunican con los demás.

El año pasado, Google Duplex causó sensación cuando una demostración en el escenario mostró que era capaz de hacer llamadas telefónicas y reservar citas en nombre de su uso, generando un habla similar a la humana tan sofisticada que muchas personas lo habrían confundido con una persona real. no me dijeron que estaban hablando con un bot. Desde el debut de Google Duplex, muchos especialistas en ética de la inteligencia artificial y los robots expresaron su preocupación por la tecnología, lo que llevó a Google a decir que haría que el agente se identificara como bot en el futuro. Actualmente, Google Duplex solo se utiliza en una capacidad muy limitada. pronto ver uso en Nueva Zelanda, pero solo para comprobar el horario de funcionamiento de las empresas. Los especialistas en ética todavía están preocupados por el grado en que la tecnología podría ser mal utilizada.

Rahawan argumenta que el estudio reciente demuestra que debemos considerar qué costos estamos dispuestos a pagar a cambio de transparencia:

“¿Es ético desarrollar un sistema así? ¿Deberíamos prohibir que los bots se hagan pasar por humanos y obligarlos a ser transparentes sobre quiénes son? Si la respuesta es ‘Sí’, nuestros hallazgos resaltan la necesidad de establecer estándares para el costo de eficiencia que estamos dispuestos a pagar a cambio de dicha transparencia”.

Deja un comentario