Bradford Newman, Presidente de la Práctica de Secretos Comerciales de América del Norte – Serie de entrevistas

Bradford se especializa en asuntos relacionados con secretos comerciales e Inteligencia Artificial. Es el Presidente del Subcomité AI de la ABA. Reconocido por el Daily Journal en 2019 como uno de los 20 mejores abogados de IA en California, Bradford ha sido fundamental en la propuesta de legislación federal de PI y lugar de trabajo de IA que en 2018 se convirtió en un proyecto de ley de discusión de la Cámara de Representantes de los Estados Unidos. También ha desarrollado las mejores prácticas de supervisión de IA y gobierno corporativo diseñadas para garantizar la equidad algorítmica.

¿Qué fue lo que despertó inicialmente su interés por la inteligencia artificial?

He representado a los principales innovadores y productores de productos y tecnología de IA del mundo durante muchos años. Mi interés siempre ha sido ir tras bambalinas y comprender las facetas legales y técnicas del aprendizaje automático y ver cómo evoluciona la IA. Estoy fascinado por lo que es posible para las aplicaciones en varios dominios.

Usted es un ferviente defensor de la regulación racional de la inteligencia artificial, específicamente en la regulación que protege la salud pública, ¿puede discutir cuáles son algunas de sus principales preocupaciones?

Creo que estamos en las primeras etapas de una de las revoluciones más profundas que ha vivido la humanidad. La IA tiene el potencial de afectar todos los aspectos de nuestras vidas, desde el momento en que nos despertamos por la mañana hasta el momento en que nos vamos a dormir, y también mientras dormimos. Muchas de las aplicaciones de la IA tendrán un impacto positivo en la calidad de nuestras vidas y, probablemente, en nuestra longevidad como especie.

En este momento, desde el punto de vista de la informática y el aprendizaje automático, los humanos todavía están muy involucrados en el proceso, desde la codificación de los algoritmos hasta la comprensión de los conjuntos de datos de entrenamiento, el procesamiento de los resultados, el reconocimiento de las deficiencias y la producción de la tecnología.

Pero estamos en una carrera contrarreloj en dos frentes principales. Primero, lo que comúnmente se conoce como el problema de la “caja negra”: la participación humana y la comprensión de la IA disminuirán con el tiempo a medida que evolucione la sofisticación de la IA (piense en las ANN). Y segundo, aumentará el uso de la IA por parte de los gobiernos y los intereses privados.

Mi preocupación es que la IA se utilice, tanto a propósito como sin intención, de maneras que contradicen los ideales demócratas occidentales de libertad y libertad individual.

¿Cómo abordamos estas preocupaciones?

La sociedad está en un punto en el que debemos resolver no lo que es posible con respecto a la IA, sino lo que debe prohibirse y/o restringirse parcialmente.

Primero, debemos identificar específicamente las decisiones que nunca se pueden tomar en su totalidad o en parte por la salida algorítmica generada por la IA. Esto significa que incluso en situaciones en las que todos los expertos están de acuerdo en que la entrada y salida de datos es totalmente imparcial, transparente y precisa, debe existir una prohibición legal de utilizarlos para cualquier tipo de toma de decisiones predictiva o sustantiva.

Es cierto que esto es contrario a la intuición en un mundo en el que anhelamos la certeza matemática, pero establecer una “zona de exclusión aérea” de IA es esencial para preservar las libertades que todos apreciamos y que sirven como base para nuestra sociedad.

En segundo lugar, para otras decisiones identificadas basadas en análisis de IA que no están totalmente prohibidas, necesitamos una legislación que defina claramente aquellas en las que un ser humano debe participar en el proceso de toma de decisiones.

Ha jugado un papel decisivo en la propuesta de legislación federal sobre PI y lugar de trabajo de IA que en 2018 se convirtió en un proyecto de ley de debate de la Cámara de Representantes de los Estados Unidos. ¿Puedes discutir algunas de estas propuestas?

La Ley de Protección de Datos de IA tiene como objetivo promover la innovación y está diseñada para (1) aumentar la transparencia en la naturaleza y el uso de la inteligencia artificial y generar confianza pública en ella; (2) abordar el impacto de la inteligencia artificial en el mercado laboral y (3) proteger la salud y la seguridad públicas.

Tiene varios componentes clave. Por ejemplo, prohíbe que las empresas cubiertas dependan únicamente de la inteligencia artificial para tomar ciertas decisiones, incluida una decisión sobre el empleo de personas o la denegación o limitación de un tratamiento médico, y prohíbe a los emisores de seguros médicos tomar decisiones sobre la cobertura de un tratamiento médico únicamente en el análisis de IA. También establece la Junta de Inteligencia Artificial, una nueva agencia federal encargada de las responsabilidades específicas de regular la IA en lo que respecta a la salud y la seguridad públicas. Y requiere que las entidades cubiertas designen un Director de Inteligencia Artificial.

También ha desarrollado las mejores prácticas de supervisión de IA y gobierno corporativo diseñadas para garantizar la equidad algorítmica. ¿Cuáles son algunos de los problemas actuales que ve con equidad o sesgo en los sistemas de IA?

Este tema ha sido objeto de un intenso escrutinio por parte de los académicos y ahora está captando el interés de las agencias gubernamentales de EE. UU., como la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC) y el colegio de abogados de los demandantes. La mayoría de las veces, la causalidad resulta de una falla en los conjuntos de datos de entrenamiento o de la falta de comprensión y transparencia en el entorno de prueba. Esto se ve agravado por la falta de propiedad central y supervisión de la IA por parte de la alta dirección.

Esta falta de comprensión técnica y de conocimiento de la situación es un problema importante de responsabilidad. He hablado con varios abogados prominentes de demandantes que están a la caza de casos de parcialidad de AI.

El aprendizaje profundo a menudo sufre el problema de la caja negra, por el cual ingresamos datos en una red neuronal artificial (ANN) y luego recibimos una salida, sin forma de saber cómo se generó esa salida. ¿Crees que este es un problema importante?

Hago. Y a medida que los algoritmos y las redes neuronales continúan evolucionando, y los humanos cada vez más no están “al tanto”, existe un riesgo real de pasar el punto de inflexión en el que ya no podremos comprender los elementos críticos de la función y el resultado.

Con COVID-19, los países de todo el mundo han introducido sistemas de vigilancia estatales impulsados ​​​​por IA. ¿Qué tanto problema tiene con el posible abuso con este tipo de vigilancia?

Es ingenuo y, francamente, irresponsable desde la perspectiva de los derechos y libertades individuales, ignorar o minimizar el riesgo de abuso. Si bien el rastreo de contactos parece prudente en medio de una pandemia global, y el reconocimiento facial basado en IA brinda una medida efectiva para hacer lo que los humanos por sí solos no serían capaces de lograr, la sociedad debe instituir prohibiciones legales sobre el uso indebido junto con mecanismos efectivos de supervisión y cumplimiento. De lo contrario, estamos entregando al Estado un elemento central de nuestros derechos fundamentales individuales. Una vez entregado al por mayor, este elemento básico de nuestra libertad y privacidad no será devuelto.

Anteriormente declaró que “Debemos establecer una “zona de exclusión aérea” de IA si queremos preservar las libertades que todos los estadounidenses aprecian y que sirven como base de nuestra sociedad”. ¿Podrías compartir algunas de estas preocupaciones que tienes?

Cuando hablamos de IA, siempre debemos centrarnos en el propósito esencial de la IA: producir análisis predictivos precisos a partir de conjuntos de datos muy grandes que luego se utilizan para clasificar a los humanos y tomar decisiones. A continuación, debemos examinar quiénes son los que toman las decisiones, qué deciden y en qué basan sus decisiones.

Si entendemos que quienes toman las decisiones son quienes tienen el mayor impacto en nuestra salud, sustento y libertades: empleadores, propietarios, médicos, aseguradoras, fuerzas del orden público y cualquier otra empresa privada, comercial y gubernamental que pueda generar, recopilar o comprar análisis de IA. — se vuelve fácil ver que en una democracia liberal occidental, a diferencia de un régimen totalitario, debería haber decisiones que no deberían, y no deben, dejarse únicamente en manos de AI.

Si bien nos vienen a la mente muchas decisiones obvias, como prohibir el encarcelamiento de alguien antes de que se cometa un delito, la adopción generalizada de la IA en todos los aspectos de nuestras vidas presenta instancias mucho más desconcertantes de acertijos éticos. Por ejemplo, si un algoritmo predice con precisión que los trabajadores que publican fotos en las redes sociales de vacaciones en la playa en las que beben alcohol renuncian o son despedidos de sus trabajos en promedio 3,5 años antes que aquellos que publican fotos de ellos mismos haciendo ejercicio, ¿deberían los primeros? ¿Se le puede negar a la categoría una promoción o un aumento basado únicamente en la salida algorítmica? Si un algoritmo determina correctamente que los adolescentes que juegan videojuegos en promedio más de 2 horas por día tienen menos probabilidades de graduarse de una universidad de cuatro años, ¿se les debería negar la admisión a esos estudiantes? Si se determina que las mujeres asiáticas de 60 años admitidas en la UCI por síntomas relacionados con COVID-19 tienen una tasa de supervivencia más alta que los hombres afroamericanos de 70 años, ¿deberían las mujeres recibir tratamiento médico preferencial?

Estos ejemplos simplificados en exceso son solo algunas de las numerosas decisiones en las que confiar únicamente en la IA contradice nuestras opiniones sobre lo que exigen los derechos humanos individuales.

¿Hay algo más que le gustaría compartir sobre AI o Baker McKenzie?

Estoy extremadamente energizado para ayudar a liderar La práctica de IA verdaderamente internacional de Baker McKenzie en medio del paisaje cambiante. Reconocemos que nuestros clientes están ávidos de orientación sobre todo lo relacionado con la IA, desde la negociación de contratos hasta el establecimiento de supervisión interna, para evitar reclamos de parcialidad y comprender el marco regulatorio nacional e internacional emergente.

Las empresas quieren hacer lo correcto, pero hay muy pocos bufetes de abogados que tengan la experiencia y la comprensión necesarias de la IA y el aprendizaje automático para poder ayudarlas. Para aquellos de nosotros que somos adictos a la IA y abogados, este es un momento emocionante para agregar valor real a nuestros clientes.

Gracias por las fantásticas respuestas con respecto a algunas de estas principales preocupaciones sociales relacionadas con la IA. Los lectores que deseen aprender más sobre Bradford Newman deben haga clic aquí.

Deja un comentario