Alyssa Simpson Rochwerger, coautora de Real World AI – Serie de entrevistas

Alyssa Rochwerger es una líder de productos impulsada por el cliente dedicada a crear productos que resuelven problemas difíciles para personas reales. Ha ocupado numerosos puestos de liderazgo de productos para organizaciones de aprendizaje automático. Se desempeñó como vicepresidenta de producto para Figure Eight (adquirida por Appen), vicepresidenta de inteligencia artificial y datos en Appeny director de producto en IBM Watson. Recientemente dejó el espacio para perseguir su sueño de utilizar la tecnología para mejorar la atención médica. Actualmente, se desempeña como directora de producto en Blue Shield of California, donde está felizmente rodeada de muchos datos, muchos problemas difíciles y nada más que oportunidades para tener un impacto positivo.

Hablamos de su nuevo libro: El mundo real de la IA: una guía práctica para el aprendizaje automático responsable

En la introducción del libro, usted describe cómo, como gerente de productos de IBM, encontró por primera vez un problema con el sistema de inteligencia artificial que entregaba información sesgada cuando el algoritmo clasificó una imagen de una persona en una silla de ruedas como «perdedora». ¿Cuánto de una llamada de atención fue esto para ti sobre el sesgo de la IA?

No lo llamaría una llamada de atención, ya que era la primera vez que creaba un producto basado en el aprendizaje automático (solo llevaba unos meses en el puesto) y aún no sabía lo suficiente sobre cómo funcionaba esta tecnología para poner guardias y mitigar activamente los sesgos no deseados. Fue una experiencia reveladora que agudizó mi atención sobre este tema y me hizo muy consciente de seguir adelante. La equidad, el acceso y la inclusión son temas que me apasionan, y lo han sido durante mucho tiempo. Incluso gané un premio en la universidad por mi defensa de los estudiantes con discapacidades. Esta experiencia en IBM me ayudó a comprender desde una perspectiva técnica lo fácil que es codificar el sesgo social sistémico en productos basados ​​en aprendizaje automático si el equipo no está mitigando activamente. Estaba feliz de trabajar en una institución que se preocupa profundamente por la equidad y dedica recursos a la mitigación.

¿Qué aprendiste personalmente investigando y escribiendo este libro?

En una nota personal, tuve que sacar tiempo para escribir este libro mientras cambiaba de trabajo, tenía un hijo de 1 año mientras navegaba por COVID. Aprendí cómo sacar tiempo para hacer de esto una prioridad, y cómo pedir ayuda a mi familia, que me brindó el tiempo para dedicar mi atención a la escritura de libros.

Profesionalmente, fue maravilloso tener tantos participantes que voluntariamente y amablemente compartieron sus historias con nosotros para su publicación. Según mi experiencia, los profesionales del aprendizaje automático son un grupo de personas increíblemente atento y amable, dispuesto a ayudar a los demás y compartir los errores y las lecciones aprendidas. Desafortunadamente, muchas de estas historias de lecciones aprendidas no se incluyeron en este libro o tuvieron que anonimizarse de manera significativa, debido a la preocupación de hacer pública información detrás de escena que podría hacer que una empresa o individuo se vea mal si se toma de manera incorrecta. Si bien eso es normal para el curso, personalmente creo que es una lástima: creo firmemente en aprender y crecer a partir de la experiencia y los errores pasados ​​si pueden ser útiles para los demás.

¿Cuáles son algunas de las lecciones más importantes que espera que la gente aprenda al leer esto?

Espero que la gente aprenda que el aprendizaje automático no da mucho miedo ni es difícil de entender. Que es una tecnología poderosa pero a veces frágil que necesita orientación y estructura para resolver con éxito problemas difíciles. También que el uso ético responsable de esta tecnología es fundamental para la madurez y el éxito, y que centrarse en mitigar el sesgo dañino desde el principio es clave para el éxito comercial.

Un ejemplo del sesgo de género de la IA que se describió en el libro fue la tarjeta de crédito de Apple que emitió líneas de crédito más bajas para mujeres que para hombres. Este fue un ejemplo de cómo la omisión del género como opción no tuvo en cuenta otras variables que pueden servir como proxy del género. El ejemplo mostró que sin la entrada de «género» era imposible darse cuenta de que el resultado estaba sesgado hasta después de que se lanzó el producto final. ¿Cuáles son algunos tipos de entradas de datos que cree que nunca deben omitirse para evitar prejuicios contra el género o las minorías?

No existe una regla estricta y rápida: cada conjunto de datos, caso de uso y situación es diferente. Animaría a los profesionales a entrar en los detalles y matices de qué problema se está aplicando para resolver un algoritmo de aprendizaje automático, y qué sesgo dañino podría codificarse en esa decisión.

El libro describe cómo una responsabilidad principal al comunicarse con el equipo de IA es definir con precisión los resultados que son importantes para el negocio. En su opinión, ¿con qué frecuencia las empresas fallan en esta tarea?

Diría que en mi experiencia, la mayoría de las veces, los resultados no están definidos o solo se definen en un nivel amplio o alto. Entrar en detalles sobre los resultados específicos es una manera fácil de preparar al equipo para el éxito desde el principio.

El libro habla sobre la importancia de darse cuenta de que un sistema de IA no es un tipo de sistema del tipo «Configúrelo y olvídese». ¿Podría discutir esto brevemente?

Este es el error clásico que cometen la mayoría de las empresas cuando lanzan un nuevo sistema ML a producción. La realidad cambia: el tiempo pasa, lo que era cierto ayer (los datos de entrenamiento) podría no serlo mañana. Depende de sus circunstancias, pero en la mayoría de los casos, es importante poder aprender, ajustar y tomar mejores decisiones con el tiempo en función de la información más reciente.

Los productos basados ​​en aprendizaje automático esencialmente son tomadores de decisiones. Para comparar esto con un ejemplo humano, es como un árbitro en un partido de fútbol de alto riesgo. Muchas veces, si es un árbitro bien entrenado con experiencia, el árbitro toma una buena decisión y el juego continúa, pero a veces, ese árbitro hace una mala decisión, o no está seguro de qué decisión tomar, y necesita regrese y revise el video; pregunte a otras personas para tomar una decisión sobre una jugada en particular. Del mismo modo, los productos de ML necesitan comentarios, capacitación y, en ocasiones, no son seguros. Necesitan tener opciones de respaldo a las que recurrir, así como nueva información de la que aprender para mejorar con el tiempo. Un buen árbitro aprenderá con el tiempo y mejorará a la hora de emitir juicios.

¿Podría hablar sobre la importancia de crear un equipo multifuncional que pueda identificar qué problemas se abordan mejor mediante el uso de IA?

La tecnología de aprendizaje automático suele ser adecuada para problemas específicos muy difíciles que no se resuelven con otros enfoques. Cualquier problema difícil: se necesita un equipo para tener éxito. Cuando las empresas son nuevas en IA, a menudo hay una narrativa falsa de que un científico de aprendizaje automático solitario, o incluso un equipo de aprendizaje automático, puede resolver el problema por sí mismo. Nunca he encontrado que eso sea cierto. Se necesita un equipo con diferentes antecedentes y enfoques para abordar un problema difícil y, sin duda, para implementar con éxito la tecnología de aprendizaje automático en la producción.

Gracias por la gran entrevista, para los lectores (y especialmente para los ejecutivos de empresas) que estén interesados ​​en aprender más, les recomiendo que lean el libro. El mundo real de la IA: una guía práctica para el aprendizaje automático responsable.

Deja un comentario