Las fallas del proyecto de ley de inteligencia artificial de la UE

Una nueva crítica legal del borrador de la ‘Ley AI’ de la Unión Europea presenta una amplia gama de críticas a las regulaciones propuestas publicadas en abril, y concluye que gran parte del documento está ‘cosido’ de la regulación del consumidor de la década de 1980 apenas aplicable; que en realidad promueve un entorno de IA desregulado en Europa, en lugar de someter al sector a una regulación coherente; y, entre una serie de otras críticas, que las propuestas trazan un futuro marco regulatorio de IA que tiene ‘poco sentido e impacto’.

Titulado Desmitificando el Proyecto de Ley de Inteligencia Artificial de la UE, el preimpresión es una colaboración entre investigadores de UCL London y Radboud University en Nijmegen.

El documento se suma a un creciente cuerpo de opinión negativa sobre la implementación propuesta (en lugar de la intención tan admirada) de un marco regulatorio de IA, incluida la afirmación en abril de uno de los propios contribuyentes del proyecto de reglamento de que las directrices propuestas son “tibias, miopes y deliberadamente vagas”, lo que caracterizó el documento de la Comisión Europea como un defensor de la “ética falsa”.

Sistemas manipulativos de IA

El nuevo documento sostiene que las restricciones propuestas por la Ley AI sobre los “sistemas de manipulación” se ven obstaculizadas por una definición vaga e incluso contradictoria de “daño”, y comenta que “[a] cínico podría sentir que la Comisión está más interesada en el valor retórico de las prohibiciones que en el efecto práctico”.

Él proyecto de reglamento esbozar dos prácticas prohibidas putativas:

(a) la comercialización, puesta en servicio o uso de un sistema de IA que implemente técnicas subliminales más allá de la conciencia de una persona para distorsionar materialmente el comportamiento de una persona de una manera que cause o pueda causar que esa persona u otra persona física o daños psicológicos;

(b) la comercialización, puesta en servicio o uso de un sistema de IA que explote cualquiera de las vulnerabilidades de un grupo específico de personas debido a su edad, discapacidad física o mental, para distorsionar materialmente el comportamiento de una persona Perteneciente a ese grupo de una manera que cause o pueda causar a esa persona u otra persona daño físico o psicológico;

Los investigadores argumentan que estas restricciones no abordan si los servicios o el software de un proveedor de IA tienen éxito o no en la consecución de sus propios objetivos, sino solo si el usuario final sufre un “daño” en el proceso. Agregan que la definición de daño del borrador se limita fatalmente a los usuarios individuales, en lugar del tipo de daño colectivo o social que se puede inferir razonablemente de una serie de controversias basadas en la IA de los últimos años, como la debacle de Cambridge Analytica.

El documento observa que “en la vida real, el daño puede acumularse sin que un solo evento supere un umbral de gravedad, lo que hace que sea difícil de probar”.

Se permiten sistemas de IA nocivos, pero no para consumo en la UE

La Ley de IA propone implementar una prohibición de los sistemas biométricos de ‘tiempo real’ en los espacios públicos por parte de las fuerzas del orden. Aunque se ha apuntado cierto escepticismo público a las excepciones que hacen las propuestas para la lucha contra el terrorismo, el tráfico de niños y la búsqueda de una orden de arresto europea, los investigadores también señalan que nada impediría que los proveedores vendan sistemas biométricos infractores a regímenes opresores.

El documento observa que esta ya es una práctica histórica, como se revela en el informe de 2020 de Amnistía Internacional.

Además, establece que la especificación de la Ley de IA del sistema biométrico de “tiempo real” es arbitraria y excluye los sistemas analíticos fuera de línea, como el procesamiento posterior de secuencias de video de eventos de protesta.

Además, se observa que las propuestas no ofrecen ningún mecanismo para restringir los sistemas biométricos que no están relacionados con la aplicación de la ley, que en cambio se remiten perezosamente al RGPD; y que el propio RGPD ‘establece un requisito de consentimiento individual de alta calidad para cada persona escaneada que es efectivamente imposible de cumplir’.

La redacción de esta sección de la Ley AI también recibe críticas de los investigadores. El borrador estipula que se requerirá autorización previa para el despliegue de sistemas biométricos para el ‘uso individual’ de dichos sistemas por parte de las autoridades competentes, pero no aclara qué significa ‘uso individual’ en este contexto. El documento señala que las órdenes controvertidas pueden ser temáticas y relacionarse con organizaciones, propósitos y lugares amplios.

Además, el proyecto de reglamento no estipula un mecanismo de transparencia para el número y tipo de autorizaciones emitidas, lo que dificulta el escrutinio público.

Regulación de Outsourcing a ‘Estándares Armonizados’

La investigación establece que las entidades más importantes en la Ley de IA en realidad no se mencionan ni una sola vez en el proyecto de reglamento: CEN (Comité Europeo de Normalización) y CENELEC (Comité Europeo de Normalización Electrotécnica), dos de las tres Organizaciones Europeas de Normalización (ESO) que la Comisión Europea puede ordenar la formulación de estándares armonizados, que en muchos casos seguirían siendo los marcos regulatorios que rigen para ciertos tipos de servicios e implementaciones de IA.

Esto significa efectivamente que los productores de IA pueden optar por seguir los estándares de lo que en efecto compiten en lugar de las regulaciones complementarias, en lugar de cumplir con los requisitos esenciales descritos en la Ley de IA. Esto permite a los proveedores interpretar de manera más flexible las regulaciones propuestas cuando entren en vigor en 2024-5.

Los investigadores del artículo también opinan que es probable que los años intermedios de cabildeo industrial entre los organismos de estándares redefinan considerablemente estos “estándares esenciales”, y sugieren que las regulaciones “ideales” deberían comenzar con un nivel ético y una claridad legislativa más altos, aunque solo sea para dar cuenta de esto. inevitable proceso de desgaste.

Legitimación de la falacia de los sistemas de reconocimiento de emociones

La Ley de IA presenta una disposición contra el despliegue de sistemas de categorización y reconocimiento de emociones, marcos que no necesariamente identifican a un individuo, pero afirman comprender lo que sienten o ser capaces de categorizarlos en términos de género, etnia y varios otros. significantes económicos y sociales.

Los investigadores argumentan que esta cláusula no tiene sentido, ya que el RGPD ya obliga a los proveedores de dichos sistemas a proporcionar a los usuarios información clara sobre el uso de dichos sistemas, para que los usuarios puedan optar por no participar (lo que puede implicar no usar un servicio en línea o no ingresar). un área donde se anuncia que existen tales sistemas).

Más importante aún, el documento afirma que esta cláusula legitima una desacreditado tecnología, y continúa caracterizando FACS-sistemas de reconocimiento de emociones de estilo a la luz de la vergonzosa historia de la frenología y otros enfoques casi chamanistas de la categorización social de la era industrial temprana.

‘Aquellos que afirman detectar emociones usan taxonomías cuestionables y demasiado simplificadas; asumir incorrectamente la universalidad a través de culturas y contextos; y riesgo'[taking] nos devuelve al pasado frenológico’ de analizar los rasgos de carácter de las estructuras faciales. Las disposiciones de la Ley sobre el reconocimiento de emociones y la categorización biométrica parecen insuficientes para mitigar los riesgos.’

Una propuesta demasiado modesta

Además de estos, los investigadores abordan otras deficiencias percibidas en la Ley de IA con respecto a la regulación de falsificaciones profundas, la falta de supervisión de las emisiones de carbono de los sistemas de IA, la duplicación de la supervisión regulatoria con otros marcos y la definición inadecuada de entidades legales procesables.

Instan a los legisladores y activistas civiles a tomar medidas para corregir los problemas identificados, y señalan además que incluso su extensa deconstrucción del proyecto de reglamento ha tenido que omitir muchas otras áreas de preocupación, debido a la falta de espacio.

No obstante, el documento aplaude el intento vanguardista de la Ley de introducir un sistema de regulación horizontal de los sistemas de IA, citando sus muchos “elementos sensibles”, como la creación de una jerarquía de niveles de evaluación de riesgos, el compromiso de introducir prohibiciones y la propuesta de una base de datos pública. de sistemas a los que los proveedores tendrían que contribuir para ganar legitimidad europea, aunque teniendo en cuenta los dilemas legales que este último requisito probablemente traerá a colación.

Deja un comentario