¿Es la IA una amenaza existencial?

Cuando se habla de Inteligencia Artificial (IA), un debate común es si la IA es una amenaza existencial. La respuesta requiere comprender la tecnología detrás del aprendizaje automático (ML) y reconocer que los humanos tienen la tendencia a antropomorfizarse. Exploraremos dos tipos diferentes de IA, la Inteligencia Artificial Estrecha (ANI), que ya está disponible y es motivo de preocupación, y la amenaza que se asocia más comúnmente con las versiones apocalípticas de la IA, que es la Inteligencia General Artificial (AGI).

Amenazas de Inteligencia Artificial Estrecha

Para comprender qué es ANI, simplemente debe comprender que cada aplicación de IA que está disponible actualmente es una forma de ANI. Estos son campos de IA que tienen un campo limitado de especialidad, por ejemplo, los vehículos autónomos usan IA que está diseñada con el único propósito de mover un vehículo del punto A al B. Otro tipo de ANI podría ser un programa de ajedrez que está optimizado para jugar. ajedrez, e incluso si el programa de ajedrez se mejora continuamente mediante el uso del aprendizaje por refuerzo, el programa de ajedrez nunca podrá operar un vehículo autónomo.

Con su enfoque en cualquier operación de la que sea responsable, los sistemas ANI no pueden utilizar el aprendizaje generalizado para dominar el mundo. Esa es la buena noticia; la mala noticia es que, al depender de un operador humano, el sistema de IA es susceptible a datos sesgados, errores humanos o, lo que es peor, un operador humano deshonesto.

Vigilancia de IA

Puede que no haya mayor peligro para la humanidad que los humanos que usan la IA para invadir la privacidad y, en algunos casos, usan la vigilancia de la IA para evitar por completo que las personas se muevan libremente. China, Rusia y otras naciones aprobaron regulaciones durante el COVID-19 para permitirles monitorear y controlar el movimiento de sus respectivas poblaciones. Estas son leyes que, una vez establecidas, son difíciles de eliminar, especialmente en sociedades que cuentan con líderes autocráticos.

En China, las cámaras se colocan fuera de las casas de las personas y, en algunos casos, dentro de la casa de la persona. Cada vez que un miembro del hogar se va, una IA controla la hora de llegada y salida y, si es necesario, alerta a las autoridades. Como si eso no fuera suficiente, con la ayuda de la tecnología de reconocimiento facial, China puede rastrear el movimiento de cada persona cada vez que una cámara los identifica. Esto ofrece un poder absoluto a la entidad que controla la IA y un recurso absolutamente nulo para sus ciudadanos.

La razón por la que este escenario es peligroso es que los gobiernos corruptos pueden monitorear cuidadosamente los movimientos de periodistas, opositores políticos o cualquier persona que se atreva a cuestionar la autoridad del gobierno. Es fácil entender cómo los periodistas y los ciudadanos serían cautelosos al criticar a los gobiernos cuando se está monitoreando cada movimiento.

Afortunadamente, hay muchas ciudades que están luchando para evitar que el reconocimiento facial se infiltre en sus ciudades. Notablemente, Portland, Oregón, aprobó recientemente una ley que bloquea el uso innecesario del reconocimiento facial en la ciudad. Si bien estos cambios en la regulación pueden haber pasado desapercibidos para el público en general, en el futuro estas regulaciones podrían marcar la diferencia entre las ciudades que ofrecen algún tipo de autonomía y libertad y las ciudades que se sienten opresivas.

Armas Autónomas y Drones

Más de 4500 investigaciones de IA han pedido la prohibición de armas autónomas y han creado el Prohibición de armas autónomas letales sitio web. El grupo tiene muchas organizaciones sin fines de lucro notables como signatarias, como Observador de derechos humanos, Amnistía Internacionaly el El Instituto del Futuro de la Vida que en sí mismo tiene un consejo asesor científico estelar que incluye a Elon Musk, Nick Bostrom y Stuart Russell.

Antes de continuar, compartiré esta cita de The Future of Life Institute que explica mejor por qué existe un claro motivo de preocupación: “En contraste con las armas semiautónomas que requieren supervisión humana para garantizar que cada objetivo sea validado como legítimo desde el punto de vista ético y legal, tales Las armas totalmente autónomas seleccionan y atacan objetivos sin intervención humana, lo que representa una automatización completa del daño letal. ”

Actualmente, las bombas inteligentes se despliegan con un objetivo seleccionado por un humano, y la bomba luego usa IA para trazar un curso y aterrizar en su objetivo. El problema es ¿qué sucede cuando decidimos eliminar completamente al ser humano de la ecuación?

Cuando una IA elige a qué humanos necesitan apuntar, así como el tipo de daño colateral que se considera aceptable, es posible que hayamos cruzado un punto sin retorno. Esta es la razón por la que tantos investigadores de IA se oponen a investigar cualquier cosa que esté remotamente relacionada con las armas autónomas.

Hay múltiples problemas con simplemente intentar bloquear la investigación de armas autónomas. El primer problema es que incluso si naciones avanzadas como Canadá, EE. UU. y la mayor parte de Europa eligen aceptar la prohibición, eso no significa que naciones rebeldes como China, Corea del Norte, Irán y Rusia seguirán el juego. El segundo y mayor problema es que la investigación y las aplicaciones de IA que están diseñadas para su uso en un campo, pueden usarse en un campo completamente diferente.

Por ejemplo, la visión por computadora mejora continuamente y es importante para desarrollar vehículos autónomos, medicina de precisión y otros casos de uso importantes. También es fundamentalmente importante para drones regulares o drones que podrían modificarse para volverse autónomos. Un caso de uso potencial de la tecnología avanzada de drones es el desarrollo de drones que puedan monitorear y combatir incendios forestales. Esto eliminaría completamente a los bomberos del peligro. Para hacer esto, necesitaría construir drones que puedan volar en peligro, navegar con visibilidad baja o nula y arrojar agua con una precisión impecable. No es muy difícil usar esta tecnología idéntica en un dron autónomo que está diseñado para atacar selectivamente a los humanos.

Es una situación peligrosa y, en este momento, nadie comprende completamente las implicaciones de avanzar o intentar bloquear el desarrollo de armas autónomas. Sin embargo, es algo en lo que debemos mantener nuestros ojos, mejorando protección del denunciante puede permitir que aquellos en el campo denuncien abusos.

Dejando a un lado al operador deshonesto, ¿qué sucede si el sesgo de la IA se infiltra en la tecnología de IA que está diseñada para ser un arma autónoma?

Sesgo de IA

Una de las amenazas más no denunciadas de la IA es el sesgo de la IA. Esto es fácil de entender ya que la mayor parte no es intencional. El sesgo de la IA se desliza cuando una IA revisa los datos que le envían los humanos, utilizando el reconocimiento de patrones de los datos que se le suministraron a la IA, la IA llega incorrectamente a conclusiones que pueden tener repercusiones negativas en la sociedad. Por ejemplo, una IA alimentada con literatura del siglo pasado sobre cómo identificar al personal médico puede llegar a la conclusión sexista no deseada de que las mujeres siempre son enfermeras y los hombres siempre médicos.

Un escenario más peligroso es cuando La IA que se usa para sentenciar a criminales condenados está sesgada hacia la imposición de penas de prisión más largas a las minorías. Los algoritmos de evaluación de riesgos criminales de la IA simplemente están estudiando patrones en los datos que se han introducido en el sistema. Estos datos indican que, históricamente, ciertas minorías tienen más probabilidades de reincidir, incluso cuando esto se debe a conjuntos de datos deficientes que pueden estar influenciados por el perfil racial de la policía. La IA sesgada luego refuerza las políticas humanas negativas. Es por eso que la IA debe ser una guía, nunca un juez y un jurado.

Volviendo a las armas autónomas, si tenemos una IA que está sesgada contra ciertos grupos étnicos, podría optar por apuntar a ciertos individuos en función de datos sesgados, y podría llegar a garantizar que cualquier tipo de daño colateral afecte menos a ciertos grupos demográficos que a otros. . Por ejemplo, al apuntar a un terrorista, antes de atacar podría esperar hasta que el terrorista esté rodeado por aquellos que siguen la fe musulmana en lugar de los cristianos.

Afortunadamente, se ha demostrado que la IA diseñada con equipos diversos es menos propensa a los sesgos. Esta es razón suficiente para que las empresas intenten, cuando sea posible, contratar un equipo diverso y completo.

Amenazas de inteligencia artificial general

Cabe señalar que, si bien la IA avanza a un ritmo exponencial, todavía no hemos alcanzado el AGI. Cuándo llegaremos a AGI está sujeto a debate, y todos tienen una respuesta diferente en cuanto a la línea de tiempo. Personalmente, suscribo las opiniones de Ray Kurzweil, inventor, futurista y autor de ‘The Singularity is Near’, quien cree que tendremos logrado AGI para 2029.

AGI será la tecnología más transformadora del mundo. A las pocas semanas de que la IA alcance la inteligencia a nivel humano, alcanzará superinteligencia que se define como una inteligencia que supera con creces la de un humano.

Con este nivel de inteligencia, un AGI podría absorber rápidamente todo el conocimiento humano y usar el reconocimiento de patrones para identificar biomarcadores que causan problemas de salud y luego tratar esas condiciones mediante el uso de la ciencia de datos. Podría crear nanobots que ingresen al torrente sanguíneo para atacar las células cancerosas u otros vectores de ataque. La lista de logros de los que es capaz un AGI es infinita. Anteriormente exploramos algunos de los beneficios de AGI.

El problema es que es posible que los humanos ya no puedan controlar la IA. Elon Musk lo describe así: “Con inteligencia artificial estamos invocando al demonio.’ ¿Seremos capaces de controlar a este demonio es la pregunta?

Lograr AGI puede ser simplemente imposible hasta que una IA deje una configuración de simulación para interactuar verdaderamente en nuestro mundo abierto. La autoconciencia no se puede diseñar, sino que se cree que un conciencia emergente es probable que evolucione cuando una IA tenga un cuerpo robótico con múltiples flujos de entrada. Estas entradas pueden incluir estimulación táctil, reconocimiento de voz con comprensión mejorada del lenguaje natural y visión artificial aumentada.

La IA avanzada puede estar programada con motivos altruistas y querer salvar el planeta. Desafortunadamente, la IA puede usar la ciencia de datos, o incluso un árbol de decisiones para llegar a una lógica defectuosa no deseada, como evaluar que es necesario esterilizar a los humanos o eliminar parte de la población humana para controlar la sobrepoblación humana.

Se debe explorar el pensamiento y la deliberación cuidadosos al construir una IA con inteligencia que supere con creces la de un humano. Ha habido muchos escenarios de pesadilla que se han explorado.

El profesor Nick Bostrom en el argumento Paperclip Maximizer ha argumentado que un AGI mal configurado si se le ordena producir clips simplemente consumiría todos los recursos de la tierra para producir estos clips. Si bien esto parece un poco exagerado, un punto de vista más pragmático es que un AGI podría estar controlado por un estado rebelde o una corporación con poca ética. Esta entidad podría capacitar a la AGI para maximizar las ganancias y, en este caso, con una programación deficiente y cero remordimientos, podría optar por llevar a la bancarrota a los competidores, destruir las cadenas de suministro, piratear el mercado de valores, liquidar cuentas bancarias o atacar a los opositores políticos.

Aquí es cuando debemos recordar que los humanos tienden a antropomorfizarse. No podemos darle a la IA emociones, necesidades o deseos de tipo humano. Si bien hay humanos diabólicos que matan por placer, no hay razón para creer que una IA sería susceptible a este tipo de comportamiento. Es inconcebible que los humanos siquiera consideren cómo una IA vería el mundo.

En cambio, lo que debemos hacer es enseñar a la IA a ser siempre respetuosa con un humano. La IA siempre debe tener un humano que confirme cualquier cambio en la configuración, y siempre debe haber un mecanismo a prueba de fallas. Por otra parte, se ha argumentado que la IA simplemente se replicará en la nube, y para cuando nos demos cuenta de que es consciente de sí misma, puede ser demasiado tarde.

Por eso es tan importante abrir la mayor cantidad de IA posible y tener discusiones racionales sobre estos temas.

Resumen

Hay muchos desafíos para la IA, afortunadamente, todavía tenemos muchos años para descubrir colectivamente el camino futuro que queremos que tome AGI. A corto plazo, deberíamos centrarnos en crear una fuerza laboral de IA diversa, que incluya tantas mujeres como hombres y tantos grupos étnicos con puntos de vista diversos como sea posible.

También deberíamos crear protecciones de denunciantes para los investigadores que trabajan en IA, y deberíamos aprobar leyes y reglamentos que impidan el abuso generalizado de la vigilancia estatal o en toda la empresa. Los seres humanos tienen una oportunidad única en la vida de mejorar la condición humana con la ayuda de la IA, solo debemos asegurarnos de crear cuidadosamente un marco social que mejor permita los aspectos positivos, al tiempo que mitiga los aspectos negativos que incluyen amenazas existenciales.

Deja un comentario