AI Now Institute advierte sobre el mal uso del software de detección de emociones y otros problemas éticos

El Instituto AI Now ha publicado un informe que insta a los legisladores y otros organismos reguladores a establecer límites estrictos en el uso de la tecnología de detección de emociones, prohibiéndola en los casos en que pueda usarse para tomar decisiones importantes como la contratación de empleados o la aceptación de estudiantes. Además, el informe contenía una serie de otras sugerencias sobre una variedad de temas en el campo de la IA.

Él Instituto AI Now es un instituto de investigación con sede en NYU, que tiene la misión de estudiar el impacto de la IA en la sociedad. AI Now publica un informe anual que demuestra sus hallazgos sobre el estado de la investigación de la IA y las implicaciones éticas de cómo se utiliza actualmente la IA. Como informó la BBCel informe de este año abordó temas como la discriminación algorítmica, la falta de diversidad en la investigación de IA y cuestiones laborales.

El reconocimiento de afectos, el término técnico para los algoritmos de detección de emociones, es un área de investigación de IA en rápido crecimiento. Quienes emplean la tecnología para tomar decisiones a menudo afirman que los sistemas pueden obtener información confiable sobre los estados emocionales de las personas mediante el análisis de microexpresiones, junto con otras señales como el tono de voz y el lenguaje corporal. El instituto AI Now señala que la tecnología se está empleando en una amplia gama de aplicaciones, como determinar a quién contratar, establecer precios de seguros y monitorear si los estudiantes prestan atención en clase.

La profesora Kate Crawford, cofundadora de AI Now, explicó que a menudo se cree que las emociones humanas se pueden predecir con precisión con modelos relativamente simples. Crawford dijo que algunas empresas están basando el desarrollo de su software en el trabajo de Paul Ekman, un psicólogo que planteó la hipótesis de que solo hay seis tipos básicos de emociones que se registran en el rostro. Sin embargo, Crawford señala que desde que se introdujo la teoría de Ekman, los estudios han encontrado que hay una variabilidad mucho mayor en las expresiones faciales y que las expresiones pueden cambiar muy fácilmente entre situaciones y culturas.

«Al mismo tiempo que se implementan estas tecnologías, una gran cantidad de estudios muestran que no hay… evidencia sustancial de que las personas tengan esta relación constante entre la emoción que sientes y la apariencia de tu rostro». dijo Crawford a la BBC.

Por esta razón, el instituto AI Now argumenta que gran parte del reconocimiento de afecto se basa en teorías poco confiables y ciencia cuestionable. Por lo tanto, los sistemas de detección de emociones no deberían implementarse hasta que se hayan realizado más investigaciones y que «los gobiernos deberían prohibir específicamente el uso del reconocimiento de afecto en los procesos de toma de decisiones de alto riesgo». AI Now argumentó que deberíamos dejar de usar la tecnología especialmente en «contextos sociales y políticos sensibles», contextos que incluyen empleo, educación y vigilancia.

Al menos una empresa de desarrollo de IA que se especializa en el reconocimiento de afectos, Emteq, estuvo de acuerdo en que debería haber una regulación que evite el mal uso de la tecnología. El fundador de Emteq, Charles Nduka, explicó a la BBC que si bien los sistemas de inteligencia artificial pueden reconocer con precisión diferentes expresiones faciales, no existe un mapa simple de expresión a emoción. Nduka expresó su preocupación por que la regulación se lleve demasiado lejos y sofoque la investigación, y señaló que si «se van a prohibir cosas, es muy importante que la gente no tire al bebé con el agua del baño».

Como informa NextWebAI Now también recomendó una serie de otras políticas y normas que deberían guiar el avance de la industria de la IA.

AI Now destacó la necesidad de que la industria de la IA haga que los lugares de trabajo sean más diversos y afirmó que se debe garantizar a los trabajadores el derecho a expresar sus preocupaciones sobre la IA invasiva y explotadora. Los trabajadores tecnológicos también deberían tener derecho a saber si sus esfuerzos se están utilizando para construir un trabajo dañino o poco ético.

AI Now también sugirió que los legisladores tomen medidas para exigir el consentimiento informado para el uso de cualquier dato derivado de la IA relacionada con la salud. Más allá de esto, se aconsejó que la privacidad de los datos se tome más en serio y que los estados deberían trabajar para diseñar leyes de privacidad para datos biométricos que cubran tanto entidades públicas como privadas.

Finalmente, el instituto aconsejó que la industria de la IA comience a pensar y actuar de manera más global, tratando de abordar las consecuencias políticas, sociales y ecológicas más amplias de la IA. Se recomendó que se realice un esfuerzo sustancial para dar cuenta del impacto de la IA en relación con el desplazamiento geográfico y el clima, y ​​que los gobiernos deben poner a disposición del público el impacto climático de la industria de la IA.

Deja un comentario