Reid Blackman, Ph.D, Fundador y CEO de Virtue Consultants – Serie de entrevistas

Reid Blackman es el fundador y director general de Consultores de virtud. En esa capacidad, ha trabajado con empresas para integrar la ética y la mitigación de riesgos éticos en la cultura de la empresa y el desarrollo, implementación y adquisición de productos de tecnología emergente. También es asesor sénior de Ernst & Young y forma parte de su Consejo Asesor de Inteligencia Artificial, y es miembro de la Iniciativa de Diseño Alineado Éticamente de IEEE.

El trabajo de Reid ha sido reseñado en The Wall Street Journal y Dell Perspectives y ha contribuido con artículos para The Harvard Business Review, TechCrunch, VentureBeat y Risk & Compliance Magazine. Ha sido citado en numerosos artículos de noticias y habla regularmente en varios lugares, incluidos el Foro Económico Mundial, SAP, Cannes Lions, Forbes, NYU Stern School of Business, Columbia University y AIG.

Fue profesor de Filosofía en la Universidad de Colgate de 2009 a 2018. ¿En qué momento comenzó a incorporar la ética de la IA en sus clases?

A menudo impartía un curso de Filosofía Social y Política, donde cubría a Marx. Una de las afirmaciones centrales de Marx es que el capitalismo finalmente dará paso al comunismo, debido a un aumento masivo de los «medios de producción». En otras palabras, el capitalismo impulsa una eficiencia cada vez mayor en nombre de la competencia y la apertura de nuevos mercados, lo que significa un aumento en la creación de tecnologías que pueden producir más y más en un tiempo cada vez más corto. Marx también predijo que esto pondría cada vez más dinero en manos de unos pocos y empujaría a más y más personas a la pobreza, momento en el cual las estructuras capitalistas serían derrocadas por una revolución dirigida por un número creciente de masas indigentes. Todo esto conduce a una discusión en torno a la ética de la tecnología obviando la necesidad del trabajo humano, que es un elemento central de la ética de la IA.

Pequeña historia paralela si está interesado: en 2002, yo era un estudiante graduado que dirigía una discusión sobre Marx con estudiantes universitarios en la Universidad Northwestern. En algún momento, un estudiante levantó la mano y dijo: «Eventualmente, no necesitaremos humanos para hacer ningún trabajo». La clase estaba confundida. Estaba confundido. Así que dije, «bueno, entonces, ¿quién va a hacer el trabajo?» Él respondió de una manera muy práctica: «robots». La clase estalló en carcajadas. Sofoqué la mía. Pero es bastante obvio quién se rió el último.

En 2018, lanzó Consultores de virtud, una consultoría de ética que empodera a los líderes de datos e inteligencia artificial para identificar y mitigar los riesgos éticos de sus productos. ¿Qué te inspiró a emprender este viaje empresarial?

Celos. Especie de. Empecé una empresa mayorista de fuegos artificiales cuando era estudiante de posgrado, creo que alrededor de 2003 o 2004. Fue mejor de lo que esperaba y la empresa aún existe, aunque ahora soy un asesor y ya no me ocupo de las operaciones diarias. . De todos modos, es relevante porque explica cómo llegué a ser mentor de nuevas empresas en el programa de emprendimiento de Colgate (llamado TIA, Thought Into Action, dirigido por dos increíbles VC, Andy Greenfield y Wills Hapworth, que dirigen TIA Ventures). Como mentor, vi a estudiantes embarcarse en proyectos emocionantes mientras trataban de descubrir cómo establecer y escalar sus nuevas empresas con o sin fines de lucro y pensé: «¡Quiero eso!» Pero, ¿cuál sería mi nueva aventura? Tenía que hablar de mi amor por la filosofía y la ética, y lo primero que tenía sentido era una consultoría de ética. No vi el mercado para tales servicios en ese momento, porque no había ninguno que ver, así que esperé. Y luego Cambridge Analytica, BLM y #MeToo llegaron a los titulares nacionales, y de repente hubo una mayor conciencia de la necesidad.

¿Qué tan importante es para las empresas introducir una Declaración de ética de IA?

Una declaración de ética de AI no es esencial, pero es una herramienta extremadamente útil para establecer sus objetivos. Cuando está introduciendo un programa de ética de IA en su organización, desea que identifique, mitigue y gestione varios riesgos éticos, reputacionales, regulatorios y legales. Esa es su función principal. Una declaración de ética ayuda a articular cómo se verán las cosas una vez que tenga la infraestructura, el proceso y las prácticas para lograr esa función. En la medida en que una estrategia necesita un objetivo, lo que siempre ocurre, una declaración de ética de IA es una buena manera de articular esos objetivos, aunque no es la única forma.

¿Cómo pueden las empresas garantizar que la declaración de ética se transfiera al proceso y la práctica?

Una declaración de ética es solo un pequeño paso en la dirección correcta. Si desea continuar, el siguiente paso natural es hacer una evaluación de dónde se encuentra en relación con los objetivos articulados en esa declaración. Una vez que sepa dónde están las brechas más grandes y riesgosas, es decir, dónde corre el mayor riesgo de no alcanzar sus objetivos, puede comenzar a idear soluciones para reducir esas brechas. Tal vez sea un comité de ética. Tal vez sea un proceso de diligencia debida durante el desarrollo del producto. Tal vez esté mejorando la forma en que maneja los datos en los departamentos que no son de productos, como marketing y recursos humanos. Probablemente sea todas esas cosas y más.

¿Cuáles son algunas soluciones que las empresas deberían implementar para evitar sesgos en el algoritmo de IA real?

Hay un montón de herramientas técnicas para identificar el sesgo, pero son limitadas. Le permitirán comparar los resultados de su modelo con las docenas de métricas cuantitativas que se han ofrecido en la literatura académica de ética de ML, pero debe tener cuidado porque esas métricas no son compatibles entre sí. Por lo tanto, se debe tomar una decisión sustantiva y ética: ¿cuál, si alguna de estas métricas, es la apropiada en este contexto?

Además de usar una herramienta como esa, complementada con una forma responsable de responder a esa pregunta, los equipos de productos harían bien en pensar en dónde puede colarse el sesgo antes de comenzar a construir. ¿Cómo podría estar contenido o reflejado en los conjuntos de datos de entrenamiento? ¿Qué tal en la determinación de la función objetivo? ¿Qué pasa con la determinación del umbral? Hay muchos lugares en los que el sesgo puede colarse. La previsión sobre dónde podría estar eso en el proyecto actual de uno y cómo podría llegar allí es esencial para identificar y mitigar el sesgo.

Las empresas de IA son conocidas por estar dominadas por hombres blancos que pueden programar involuntariamente algunos sesgos en el sistema de IA. Para evitar esto, ¿qué tipo de características deben buscar los departamentos de recursos humanos?

Estoy a favor de mayores oportunidades y una mayor diversidad entre ingenieros y equipos de productos en general. Dicho esto, creo que esto es mirar las cosas a través de la lente equivocada. El problema principal cuando se trata de algoritmos sesgados no es que los sesgos de algunos blancos conduzcan a un código sesgado. Es que los conjuntos de entrenamiento de datos están sesgados. De hecho, un artículo reciente de Columbia: “¿Programadores sesgados? ¿O datos sesgados? Un experimento de campo para hacer operativa la ética de la IA” – concluyó que “[p]programadores que entienden la orientación técnica reducen con éxito el sesgo”, y que “[a]Las predicciones algorítmicas de programadoras de inteligencia artificial femeninas y minoritarias no muestran menos sesgo o discriminación algorítmica”. Entonces, si bien RR.HH. debe prestar atención a los problemas de diversidad, no está nada claro que las estrategias para reducir los resultados sesgados de la IA deberían centrarse principalmente, y mucho menos exclusivamente, en las decisiones de contratación en relación con los esfuerzos de diversidad.

¿Podría discutir qué es la diligencia debida de riesgo ético y por qué las empresas deberían implementarla?

Una diligencia debida de riesgo ético es un intento de detectar los diversos riesgos éticos que se pueden realizar con el producto que está creando, incluida la forma en que se implementa, cómo se puede usar o mal usar, etc. Desea centrarse en las características del producto. producto, tanto los que tiene como los que le faltan, y las formas en que pueden conducir, cuando se implementan en varios contextos, a una mala conducta ética. Cuando se hace bien, es una inspección sistémica y exhaustiva. Por supuesto, si bien puede hacer todo lo posible para mirar a la vuelta de la esquina, es muy posible que se pierda algunas cosas, por lo que es importante el monitoreo continuo.

En cuanto a por qué las empresas deberían implementarlo: solo necesitan considerar los riesgos éticos, reputacionales, regulatorios y legales de no hacerlo. Piense en Optum en las noticias y bajo investigación regulatoria por un algoritmo (supuestamente) sesgado que recomendaba a los profesionales de la salud que prestaran más atención a los pacientes blancos que a los pacientes negros más enfermos. O a Goldman Sachs, investigada por los límites de crédito de la Apple Card, que supuestamente discriminan a las mujeres. O el software de contratación de Amazon, que se eliminó debido a preocupaciones sobre el sesgo antes de su implementación. O IBM siendo demandada por Los Ángeles por presunta apropiación indebida de datos recopilados de su aplicación Weather. O Facebook….

¿Hay algo más que le gustaría compartir sobre Virtue Consultants?

Virtue ayuda a los líderes sénior a poner en práctica la ética de la IA, ya sea ayudando a educar y mejorar las habilidades de las personas sobre el tema, escribiendo una Declaración de ética de la IA, creando e implementando un marco de riesgo ético de la IA procesable, o simplemente sirviendo como asesores sobre la ética de la IA. Si eso suena interesante, la gente debería venir a saludar.

Gracias por la excelente entrevista, los lectores que deseen obtener más información sobre Reid deben visitar reid blackman, o puedes visitar Consultores de virtud.

Deja un comentario