Cómo las empresas pueden crear una IA responsable y transparente – Thought Leaders

Por Eric PaternósterCEO de Servicios Públicos de Infosys

Sundar Pichai, CEO de la empresa matriz de Google, Alphabet, describió los desarrollos en IA como «más profundos que el fuego o la electricidad», y COVID-19 ha traído una nueva urgencia para desatar la promesa de esta tecnología. Las aplicaciones de IA ahora están firmemente en el centro de atención, mejorando los tratamientos de COVID, rastreando posibles portadores de COVID y desplegando chatbots en tiempo real para usuarios de sitios web minoristas afectados por la oferta. Estas aplicaciones han demostrado que la IA mejora la resiliencia de una empresa y beneficia a la sociedad en general.

Entonces, junto con «nativo de la nube», la palabra de moda del último trimestre podría ser «primera transformación de la IA», un término que los profesionales de la industria creen que se mantendrá incluso después de que COVID desaparezca. Para muchas empresas, la promesa de costos más bajos (es decir, algoritmos de la cadena de suministro que hacen coincidir la oferta con la demanda) y aumentos admirables en la productividad (es decir, cuando los bancos usan la verificación de documentos e identidad en tiempo real) es demasiado buena para ignorarla.

¿Por qué AI-First Transformation?

En la primera transformación de la IA, una empresa usa la IA como una estrella polar, trabajando para usarla no solo de manera inteligente sino también de una manera que influya en las decisiones tomadas por las personas, los procesos y los sistemas a escala. Sintoniza a las organizaciones en dinámicas cambiantes entre empleados, socios y clientes. Esto les permite pivotar rápidamente y cumplir con las demandas cambiantes mientras crean una ventaja competitiva a largo plazo.

Pero no todas las empresas están en el mismo nivel de madurez de IA. Hay algunos que pueden denominarse «grupo de IA convencional» o H1. Estas empresas, que tienen menos experiencia e inversión, generalmente usan algoritmos clásicos como naïve Bayes, que existe desde hace 250 años, o random forest (desarrollado por Tin Kam Ho en 1995) para aumentar la inteligencia fragmentada dentro de los sistemas existentes. Dichos usos de la IA se basan estrictamente en reglas y son bastante rígidos, y carecen de la capacidad de generalizar a partir de las reglas que descubren. Luego está el «grupo de aprendizaje profundo» o H2. Estas empresas adoptan una IA más compleja, incluidas las traducciones automáticas neuronales y los sistemas basados ​​en la transcripción, para extraer información conversacional. Dichos sistemas tienen más poder, pero no explican fácilmente por qué hacen las cosas que hacen. También carecen de transparencia. Para estos dos grupos, la IA utilizada a menudo no es confiable ni confiable y puede tomar decisiones sesgadas que atraen la atención negativa de la empresa por parte de los organismos gubernamentales, los reguladores y el público en general.

Estas empresas deben tomar medidas ahora para llevar sus implementaciones de IA un paso más allá: a un tercer campo (H3) donde la IA es de autoaprendizaje y generativa. En este punto, los sistemas de IA están semisupervisados ​​o incluso no supervisados. Son transparentes y logran el “sentido común” a través del aprendizaje multitarea. Estos sistemas brindan una inteligencia más rica y brindan información procesable en tiempo real. Esto se hace a través de una IA gobernada y bien administrada que es interpretable y explicable en todas las etapas.

Cómo trabajar hacia una IA más responsable y transparente

La IA se usa cada vez más para administrar escuelas, espacios de trabajo y otras entidades públicas. En estos entornos, es más importante que nunca que la IA sea justa y transparente. Sin embargo, a medida que la sociedad supera esta explosión de adopción de IA, los organismos reguladores brindan orientación limitada sobre el desarrollo y la implementación apropiados de tecnologías de IA. Por lo tanto, la responsabilidad de tomar la iniciativa recae en las empresas. La industria tecnológica en general debe poner a trabajar la fuerza financiera y el capital humano, transformando las implementaciones iniciales de IA fragmentada en ecosistemas impulsados ​​por inteligencia eficientes, creativos, responsables y transparentes. Para entrar en este espacio, las empresas deben hacer las siguientes cuatro cosas:

  • Mantenga a los humanos informados: los modelos de IA a menudo están diseñados para operar independientemente de los humanos. Sin embargo, el elemento humano es crucial en muchos casos. Los humanos necesitan revisar las decisiones y evitar sesgos y errores que a menudo desvían los proyectos de IA. Dos casos de uso incluyen la detección de fraude y los casos en los que interviene la aplicación de la ley. Recomendamos que las empresas contraten profesionales de IA de manera lenta pero constante a lo largo del tiempo para obtener una ventaja en su primer viaje de IA.
  • Elimine conjuntos de datos sesgados: un conjunto de datos imparcial es un requisito previo fundamental para crear modelos de IA confiables, justos y no discriminatorios. Para tener una idea de su importancia, los bancos están utilizando la IA para la preselección de currículos y la calificación crediticia, e incluso se ha abierto camino en algunos sistemas judiciales. En este panorama, los sesgos no controlados han tenido implicaciones muy reales.
  • Asegúrese de que las decisiones sean explicables: esta característica ha sido cubierta por muchos de los grandes medios de comunicación, y con razón. XAI ayuda a explicar por qué un sistema de IA tomó una determinada decisión. Descubre qué características del modelo de aprendizaje profundo se usaron más que otras para hacer su predicción o hipótesis. Comprender la importancia de las características y ser capaz de justificar cómo se toman las decisiones es crucial para casos de uso como los vehículos autónomos y la visión artificial que se utilizan en las biopsias médicas.
  • Reproducir hallazgos de manera confiable: una necesidad común en los proyectos de investigación, los modelos de IA deben ser consistentes al dar predicciones a lo largo del tiempo. Dichos modelos no deben ser escalonados cuando se presentan con nuevos datos.

Estas cuatro cosas crearán ecosistemas transparentes impulsados ​​por la inteligencia, moviéndose hacia lo que llamamos una «empresa viva». Aquí, las decisiones imparciales y explicables se toman casi en tiempo real, con toda la empresa actuando como un organismo consciente que está gobernado por humanos. Leer el Documento técnico del Infosys Knowledge Institute Para descubrir mas.

Deja un comentario