El 21 de abril, la Unión Europea anunciará su primer marco regulatorio que rige el uso de la inteligencia artificial. Las nuevas regulaciones prohibirán por completo los sistemas de aprendizaje automático de «alto riesgo» e introducirán estándares mínimos para otras tecnologías de aprendizaje automático, imponiendo sanciones de 20 millones de euros, o el 4% de la facturación de la empresa, por incumplimientos.
Un proyecto de informe de la nueva ley, obtenido por Politico, buscaría fomentar la innovación y el desarrollo de sistemas de IA para el beneficio general de la economía y la sociedad de la UE, en áreas como la fabricación, la mejora de la eficiencia energética y la modelización del cambio climático; pero prohibiría el uso de aprendizaje automático en los sistemas de calificación crediticia, la evaluación automatizada de sentencias penales y la evaluación de la idoneidad para los beneficios de la seguridad social y las solicitudes de asilo o visa, entre otras prohibiciones que se revelarán más adelante.
El proyecto establece explícitamente que Estilo chino Los sistemas de puntuación social para individuos y empresas se oponen a los valores de la Unión Europea y serán prohibidos por la regulación, junto con las tecnologías de «vigilancia masiva» impulsadas por IA.
Supervisión regulatoria
Posterior a su cita de un grupo de expertos de alto nivel sobre inteligencia artificial en marzo de 2021, la UE también tiene la intención de instituir una nueva Junta Europea de Inteligencia Artificial, con cada estado miembro representado, junto con un representante de la Comisión Europea y la autoridad de protección de datos de la UE.
Quizás el edicto más amplio y potencialmente controvertido del borrador es que prohíbe los sistemas que causan daño a las poblaciones de la UE «al manipular su comportamiento, opiniones o decisiones», lo que podría decirse que incluiría muchas tecnologías que potencian el análisis del marketing comercial y político.
La normativa hará excepciones para la lucha contra la delincuencia grave, permitiendo despliegues prescritos de sistemas de reconocimiento facial, dentro de límites de alcance y duración de uso.
Al igual que con el amplio barrido de GDPR, parece que estas nuevas regulaciones pueden ser lo suficientemente generales como para incitar un «efecto escalofriante» en áreas donde no se proporcionan pautas estrictas para el uso de IA, y las corporaciones corren el riesgo de exponerse donde su uso de aprendizaje automático cae en un área gris potencial dentro de la normativa.
Sesgo bajo las nuevas regulaciones de IA de la UE
Sin embargo, con mucho, el mayor desafío y el posible atolladero legal se presenta en la forma de la estipulación del proyecto de reglamento de que los conjuntos de datos no «incorporan ningún sesgo intencional o no intencional» que pueda facilitar la discriminación.
El sesgo de datos es uno de los aspectos más desafiantes en el desarrollo de sistemas de aprendizaje automático: difícil de probar, difícil de abordar y profundamente relacionado con las culturas centrales de los organismos de recopilación de datos. El problema está colocando cada vez más a los organismos de investigación privados y estatales en una corriente cruzada entre la necesidad de representar con precisión a grupos distintos (prácticamente el objetivo fundamental de las matemáticas computacionales y el análisis estadístico empírico) y el potencial de promulgar perfiles raciales y demonización cultural, entre otras consideraciones. .
Por lo tanto, es probable que los mercados fuera de la UE esperen que la nueva regulación proporcione al menos algunas áreas específicas de orientación y una variedad de definiciones aplicables a este respecto.
Resistencia externa a la regulación AI de la UE
Es probable que la nueva regulación tenga un impacto profundo en las ramificaciones legales del uso del aprendizaje automático para analizar datos de cara al público, así como en los datos que aún será posible extraer de los usuarios de la web en la era posterior al seguimiento que es actualmente. siendo introducido por Manzana, Firefox y (a un menor grado), Cromo.
Es posible que sea necesario definir claramente la jurisdicción, por ejemplo, en los casos en que los gigantes de FAANG recopilan datos de usuarios de conformidad con el RGPD, pero procesan esos datos a través de sistemas de aprendizaje automático fuera de la Unión Europea. No está claro si los algoritmos derivados a través de dichos sistemas podrían aplicarse a plataformas dentro de la UE, y aún menos claro cómo podría probarse tal aplicación.
En el caso del uso de IA para informar las decisiones de privación de libertad y las sentencias, un tendencia creciente en los Estados Unidos, el propio Reino Unido experimentos en este sector habría estado cubierto por la nueva normativa si el país no hubiera salido de la Unión Europea.
En 2020 una Casa Blanca proyecto de memorándum sobre la regulación de la IA planteó el caso estadounidense para la baja regulación de la IA, declarando que ‘las agencias federales deben evitar acciones regulatorias o no regulatorias que obstaculicen innecesariamente la innovación y el crecimiento de la IA’. Podría decirse que es probable que esta actitud sobreviva a la administración Trump bajo la cual se publicó el memorando, pero más bien refleja la abrasión que se avecina entre EE. UU. y la UE a raíz de la nueva regulación.
Del mismo modo, el Consejo de AI del Reino Unido ‘Hoja de ruta de IA’ expresa un gran entusiasmo por los beneficios económicos de la adopción de la IA, pero una preocupación general de que no se permita que las nuevas regulaciones obstaculicen este progreso.
La primera ley real para la IA
El compromiso de la UE con una postura legal sobre la IA es innovador. Los últimos diez años se han caracterizado por una tormenta de nieve de libros blancos y hallazgos preliminares del comité y recomendaciones de gobiernos de todo el mundo, concentrándose en la ética de la IA, con pocas leyes aprobadas.
Distribución geográfica de emisores de pautas éticas de IA por número de documentos publicados, en una encuesta de 2019. El mayor número de pautas éticas se publica en los Estados Unidos y dentro de la Unión Europea, seguido por el Reino Unido y Japón. Canadá, Islandia, Noruega, Emiratos Árabes Unidos, India, Singapur, Corea del Sur, Australia están representados con 1 documento cada uno. Habiendo contribuido a una declaración específica del G7, los estados miembros de los países del G7 se destacan por separado. Fuente: https://arxiv.org/ftp/arxiv/papers/1906/1906.11668.pdf