Como preparación de industrias para la adopción acelerada de IA, nuevo enfoque en ética y responsabilidad

Por: Pandurang Kamat, CTO de Sistemas Persistentes

La inteligencia artificial (IA) en su esencia es aprendizaje automático (ML), el proceso mediante el cual las máquinas aprenden a mejorar el rendimiento en función de las entradas de datos. La gran cantidad de datos existentes en la actualidad significa que la IA ha tenido un terreno fértil para florecer, acelerando a un ritmo vertiginoso en los últimos años. Y la promesa de AI ha hecho que los tecnólogos y ejecutivos de industrias de gran alcance piensen creativamente sobre sus diversas aplicaciones.

Desde la revolución industrial en adelante, cualquier período de rápido progreso tecnológico está marcado por partes iguales de entusiasmo y temor. Él Consorcio Mundial de la red (W3C), un grupo que crea estándares de la industria de desarrolladores web, señala que «hay una conciencia cada vez mayor de que la aplicación del aprendizaje automático plantea riesgos y puede provocar daños», incluso en áreas como: sesgo, privacidad, seguridad, sostenibilidad y responsabilidad general.

“Existe una clara demanda de un enfoque ético para el ML, visto a través del activismo de la sociedad civil, el surgimiento de ~100 conjuntos de principios éticos de IA a nivel mundial y los movimientos gubernamentales en todo el mundo para regular la IA”. el grupo escribió. “Si las tecnologías no están alineadas con los valores de las sociedades en las que operan, corren el riesgo de socavarlas”.

Elegir sabiamente

En la superficie, es difícil argumentar que la velocidad y el rendimiento mejorados son malos para los negocios. Pero para ciertas industrias, hay mucho en juego con el proceso de toma de decisiones que, según algunos, no debería dejarse en manos de un algoritmo. Al observar algunas de las industrias más grandes, podemos ver cuán vulnerables somos a los errores de las máquinas y por qué la IA responsable es tan importante.

Banca, Servicios Financieros y Seguros (BFSI)

El Foro Económico Mundial (WEF, por sus siglas en inglés) y Deloitte examinaron el proceso de implementación de IA en las empresas de BFSI y descubrieron que, «si bien la IA puede ayudar a crear conocimientos comerciales útiles a partir de una cantidad abrumadora de información», la «extranjería de la IA» será una fuente de riesgo grave continuo.

“AI razona de manera inhumana”, dice el informe. “Los sistemas de IA no siguen las construcciones humanas de la lógica y se comportan de manera muy diferente a los actores humanos a los que se les asigna la misma tarea. Además, la naturaleza de autoaprendizaje de los sistemas de IA les permite evolucionar sin intervención humana, lo que puede conducir a resultados inesperados basados ​​en variables desconocidas”.

Los defensores de una IA responsable sostienen que el aprendizaje automático presenta serios problemas en cosas como la calificación automática de riesgos, el crédito y las decisiones de préstamos, todos los cuales son históricamente perjudiciales para ciertos grupos demográficos. Estudios recientes han demostrado que los prestamistas que utilizan motores de decisión basados ​​en inteligencia artificial tenían más probabilidades de negar préstamos hipotecarios a personas de color; en algunos casos, El 80% de los solicitantes negros tienen más probabilidades de ser rechazados.

Cuidado de la salud

Hace unos años, el Revista de la Asociación Médica Estadounidense (JAMA) echó un vistazo a la adopción de la IA en el cuidado de la salud y descubrió que los desafíos son muchos, incluidas «expectativas poco realistas, datos sesgados y no representativos, priorización inadecuada de la equidad y la inclusión, el riesgo de exacerbar las disparidades en el cuidado de la salud, bajos niveles de confianza y incertidumbre». entornos regulatorios”.

No es exactamente un respaldo resonante, pero hay un listón más alto para la IA responsable en el cuidado de la salud, especialmente dado su potencial literal de vida o muerte. En general, los profesionales de la salud son optimistas pero cautelosos sobre el futuro de la IA y eligen enfocar sus esfuerzos en educar a otros profesionales sobre su uso en el entorno clínico y crear pautas sobre cómo avanzar de manera responsable de una manera que beneficie a todos los pacientes.

Medios de comunicación

PwC estima que la IA proporcionará 15,7 billones de dólares en crecimiento económico mundial para 2030pero según Salesforce menos de la mitad (48 %) de los clientes confían en que las empresas utilicen la IA de manera ética y al 65 % les preocupa el uso poco ético de la IA. En el nexo de las ganancias y la confianza, se encuentran las empresas de medios: los primeros en adoptar con un gran alcance e influencia. Y existen preocupaciones sobre el hecho de que AI no es una aplicación de «configúrelo y olvídese», lo que significa que para las empresas de medios, su responsabilidad no es solo la producción de contenido, sino también su monitoreo continuo posterior a la implementación.

¿Cómo se publican y personalizan los anuncios? ¿Cómo llega el contenido a una audiencia en particular y cuál es el mensaje? ¿Quién le está enseñando a la IA «cómo» aprender? ¿Y cómo puede dirigirse a consumidores específicos y al mismo tiempo respetar la privacidad? Estas son solo algunas de las preguntas que preocupan a las empresas de medios, ya que equilibran la ética con la obtención de una ventaja competitiva.

La respuesta a la responsabilidad

El progreso en el desarrollo de IA responsable es evidente todos los días: los legisladores están redactando regulaciones, los consumidores exigen más transparencia y muchas empresas han creado departamentos específicos encargados de garantizar que su IA se use de manera adecuada. Las empresas necesitan un marco de IA responsable bien definido que cubre la ética, la transparencia, la responsabilidad, la equidad, la privacidad y la seguridad. A medida que continúan los debates y las reformas, un reciente estudio conjunto de MIT Sloan Management Review y Boston Consulting Group proporciona una guía general simple: escribieron: «Si desea ser un líder responsable de IA, concéntrese en ser una empresa responsable».

Deja un comentario