Cualquiera que esté al tanto de la inteligencia artificial (IA) probablemente haya escuchado alguna versión sobre cómo eventualmente se libera del control humano. Este no es solo un tema de las películas de ciencia ficción, sino una posibilidad muy fuerte que preocupa a muchos expertos de la industria. Muchos de estos expertos, incluidos los científicos, abogan por que comencemos a prepararnos para esta posibilidad y a evitarla de todas las formas posibles.
Ahora, un equipo internacional de investigadores ha tomado esta idea y la ha respaldado con cálculos teóricos. El equipo, que incluía a científicos del Centro para Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano, usó esos cálculos para demostrar cómo no sería posible controlar una IA superinteligente.
La investigación fue publicada recientemente en el Revista de investigación de inteligencia artificial.
Sistema de IA superinteligente
El miedo a un sistema de IA superinteligente tiene que ver con el hecho de que dicho sistema sería muy superior a los humanos. No solo podría aprender de forma independiente, sino que también podría acceder a todos los datos existentes y procesarlos extremadamente rápido.
Tal evento podría llevar a que la IA superinteligente supere a todas las máquinas existentes en línea, y si bien podría y haría cosas como curar enfermedades y resolver otros problemas importantes que enfrenta la humanidad, el riesgo de que las cosas se salgan de control también es alto.
Manuel Cebrian es coautor del estudio y Líder del Grupo de Movilización Digital del Centro de Personas y Máquinas del Instituto Max Planck para el Desarrollo Humano.
“Una máquina superinteligente que controla el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo lo aprendieron. Por lo tanto, surge la pregunta de si esto podría en algún momento volverse incontrolable y peligroso para la humanidad”, dice Cebrian.
Controlando el Sistema
Hay dos escuelas principales de pensamiento cuando se trata de controlar un sistema de este tipo. Primero, los humanos podrían limitar las capacidades de una IA superinteligente restringiendo su acceso a algunas fuentes de datos, como todo Internet. El sistema también podría funcionar sin entrar en contacto con el mundo exterior. Sin embargo, el problema con esto es que limitaría drásticamente el potencial de la IA.
El sistema se controlaría solo permitiéndole buscar resultados que beneficiarían a la humanidad, y esto podría hacerse mediante la programación de principios éticos en él.
El estudio implicó que el equipo desarrollara un algoritmo de contención teórico que evita que la IA superinteligente dañe a los humanos bajo cualquier circunstancia. Esto se puede lograr creando primero una simulación del comportamiento de la IA y detectando cualquier comportamiento que pueda ser dañino. A pesar de esta teoría prometedora, el análisis actual muestra que tal algoritmo no puede desarrollarse.
Iyad Rahwan es Director del Centro para Humanos y Máquinas.
“Si se descompone el problema en reglas básicas de la informática teórica, resulta que un algoritmo que ordenaría a una IA que no destruya el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabría si el algoritmo de contención todavía está analizando la amenaza o si se detuvo para contener la IA dañina. En efecto, esto hace que el algoritmo de contención sea inutilizable”, dice Rahwan.
Otro problema es que es posible que los expertos ni siquiera se den cuenta cuando una máquina superinteligente alcanza ese estado, principalmente debido al hecho de que sería más inteligente que los humanos.