Estamos viendo un crecimiento abrumador en los sistemas AI/ML para procesar océanos de datos que se generan en la nueva economía digital. Sin embargo, con este crecimiento, es necesario considerar seriamente las implicaciones éticas y legales de la IA.
A medida que confiamos tareas cada vez más sofisticadas e importantes a los sistemas de inteligencia artificial, como la aprobación automática de préstamos, por ejemplo, debemos estar absolutamente seguros de que estos sistemas son responsables y confiables. Reducir el sesgo en la IA se ha convertido en un área de enfoque masivo para muchos investigadores y tiene enormes implicaciones éticas, al igual que la cantidad de autonomía que le damos a estos sistemas.
El concepto de IA responsable es un marco importante que puede ayudar a generar confianza en sus implementaciones de IA. Hay cinco pilares fundamentales básicos para la IA responsable. Este artículo explorará estos para ayudarlo a construir mejores sistemas.
1. Reproducibilidad
Hay un viejo dicho en el mundo del desarrollo de software que dice: «oye, funciona en mi máquina». En ML e IA, la frase podría modificarse para que sea: «oye, funciona en mi conjunto de datos». Es decir, que los modelos de aprendizaje automático a menudo tienden a ser una caja negra. Muchos conjuntos de datos de entrenamiento pueden tener sesgos inherentes, como el sesgo de muestreo o el sesgo de confirmación, que reducen la precisión del producto final.
Para ayudar a que los sistemas AI/ML sean más reproducibles y, por lo tanto, precisos y confiables, el primer paso es estandarizar la canalización de MLOps. Incluso los científicos de datos más inteligentes tienen sus tecnologías y bibliotecas favoritas, lo que significa que la ingeniería de características y los modelos resultantes no son uniformes de una persona a otra. Mediante el uso de herramientas como MLflow, puede estandarizar la canalización de MLOps y reducir estas diferencias.
Otra forma de ayudar a que los sistemas AI/ML sean más reproducibles es mediante el uso de lo que se denomina «conjuntos de datos de oro». Estos son conjuntos de datos representativos que esencialmente actúan como pruebas y validación de nuevos modelos antes de que se lancen para producción.
2. Transparencia
Como se indicó anteriormente, muchos modelos de ML, en particular las redes neuronales, son cajas negras. Para hacerlos más responsables, necesitamos hacerlos más interpretables. Para sistemas simples como los árboles de decisión, es bastante fácil entender cómo y por qué el sistema tomó una determinada decisión, pero, a medida que aumenta la precisión y la complejidad de un sistema de IA, su interpretabilidad a menudo disminuye.
Hay una nueva área de investigación llamada «explicabilidad» que intenta brindar transparencia incluso a los complejos sistemas de inteligencia artificial, como las redes neuronales y el aprendizaje profundo. Estos utilizan modelos de proxy para copiar el rendimiento de una red neuronal, pero también intentan dar explicaciones válidas de qué características son importantes.
Todo esto conduce a la equidad; quiere saber por qué se toma una determinada decisión y asegurarse de que esta decisión sea justa. También desea asegurarse de que no se consideren características inapropiadas para que el sesgo no se filtre en su modelo.
3. Responsabilidad
Quizás el aspecto más importante de la IA responsable es la rendición de cuentas. Hay mucha conversación sobre este tema, incluso en el sector gubernamental, ya que se trata de qué políticas impulsarán los resultados de la IA. Este enfoque basado en políticas determina en qué etapa los humanos deben estar en el circuito.
La responsabilidad requiere monitores y métricas sólidos para ayudar a guiar a los responsables de la formulación de políticas y controlar los sistemas de IA/ML. La rendición de cuentas realmente une la reproducibilidad y la transparencia, pero necesita una supervisión eficaz en forma de comités de ética de IA. Estos comités pueden manejar decisiones de políticas, decidir qué es importante medir y realizar revisiones de equidad.
4. Seguridad
La seguridad de la IA se centra en la confidencialidad e integridad de los datos. Cuando los sistemas están procesando datos, desea que estén en un entorno seguro. Desea que los datos se cifren mientras están en reposo en su base de datos y también cuando se los llama a través de la canalización, pero aún existen vulnerabilidades mientras se alimentan a un modelo de aprendizaje automático como texto sin formato. Tecnologías como el cifrado homomórfico solucionan este problema al permitir que el aprendizaje automático se realice en un entorno cifrado.
Otro aspecto es la seguridad del propio modelo. Por ejemplo, los ataques de inversión de modelos permiten a los piratas informáticos aprender los datos de entrenamiento que se usaron para construir el modelo. También hay ataques de envenenamiento de modelos, que insertan datos incorrectos en el modelo mientras se está entrenando y dañan totalmente su rendimiento. Probar su modelo para ataques adversarios como estos puede mantenerlo seguro y protegido.
5. Privacidad
Google y OpenMined son dos organizaciones que recientemente priorizaron la privacidad de la IA, y OpenMined organizó una conferencia reciente sobre este mismo tema. Con nuevas regulaciones como GDPR y CCPA, y potencialmente más en el futuro, la privacidad jugará un papel central en la forma en que entrenamos los modelos de aprendizaje automático.
Una forma de asegurarse de que está manejando los datos de su cliente de manera consciente de la privacidad es usar el aprendizaje federado. Este método descentralizado de aprendizaje automático entrena diferentes modelos localmente y luego agrega cada modelo en un centro central mientras mantiene los datos seguros y privados. Otro método es introducir ruido estadístico para que no se filtren los valores individuales de los clientes. Esto lo mantiene trabajando con el agregado para que los datos de un individuo estén intactos y no estén disponibles para el algoritmo.
Mantener la IA responsable
En última instancia, hacer que la IA sea responsable depende de cada organización que esté diseñando sistemas de IA/AA. Al buscar intencionalmente tecnologías dentro de cada una de estas cinco facetas de la IA responsable, no solo puede beneficiarse del poder de la inteligencia artificial, sino que puede hacerlo de una manera confiable y directa que tranquilizará a su organización, clientes y reguladores.