La seguridad y confiabilidad de la inteligencia artificial (IA) es uno de los aspectos más importantes de la tecnología. Los mejores expertos en los diferentes campos lo mejoran y trabajan constantemente, y será crucial para la implementación completa de la IA en toda la sociedad.
Parte de ese nuevo trabajo proviene de la Universidad del Sur de California, donde los investigadores de USC Viterbi Engineering han desarrollado una nueva herramienta capaz de generar indicadores automáticos para determinar si los algoritmos de IA son confiables o no en sus datos y predicciones.
La investigación fue publicada en Frontiers in Artificial Intelligence, titulada “Después de todo, hay esperanza: cuantificación de la opinión y la confiabilidad en las redes neuronales”. Los autores del artículo incluyen a Mingxi Cheng, Shahin Nazarian y Paul Bogdan del Grupo de Sistemas Ciberfísicos de la USC.
Confiabilidad de las redes neuronales
Una de las tareas más importantes en esta área es lograr que las redes neuronales generen predicciones en las que se pueda confiar. En muchos casos, esto es lo que detiene la adopción total de tecnología que se basa en IA.
Por ejemplo, los vehículos autónomos deben actuar de forma independiente y tomar decisiones precisas con el piloto automático. Necesitan ser capaces de tomar estas decisiones extremadamente rápido, mientras descifran y reconocen objetos en el camino. Esto es crucial, especialmente en escenarios donde la tecnología tendría que descifrar la diferencia entre un badén, algún otro objeto o un ser vivo.
Otros escenarios incluyen que el vehículo autónomo decida qué hacer cuando otro vehículo lo enfrenta de frente, y la decisión más compleja de todas es si ese vehículo autónomo necesita decidir entre golpear lo que percibe como otro vehículo, algún objeto, o un ser vivo.
Todo esto significa que estamos poniendo mucha confianza en la capacidad del software del vehículo autónomo para tomar la decisión correcta en solo fracciones de segundo. Se vuelve aún más difícil cuando hay información contradictoria de diferentes sensores, como la visión por computadora de las cámaras y Lidar.
La autora principal, Minxi Cheng, decidió retomar este proyecto después de pensar: “Incluso los humanos pueden ser indecisos en ciertos escenarios de toma de decisiones. En casos que involucran información contradictoria, ¿por qué las máquinas no pueden decirnos cuando no saben?”
confianza profunda
La herramienta creada por los investigadores se llama DeepTrust y puede cuantificar la cantidad de incertidumbre, según Paul Bogdan, profesor asociado en el Departamento de Ingeniería Eléctrica e Informática de Ming Hsieh.
El equipo pasó casi dos años desarrollando DeepTrust, principalmente usando lógica subjetiva para evaluar las redes neuronales. En un ejemplo del funcionamiento de la herramienta, pudo observar las encuestas de las elecciones presidenciales de 2016 y predecir que había un mayor margen de error para que Hillary Clinton ganara.
La herramienta DeepTrust también facilita la prueba de la confiabilidad de los algoritmos de IA que normalmente se entrenan en hasta millones de puntos de datos. La otra forma de hacer esto es verificando de forma independiente cada uno de los puntos de datos para probar la precisión, lo cual es una tarea que consume mucho tiempo.
Según los investigadores, la arquitectura de estos sistemas de redes neuronales es más precisa y la precisión y la confianza se pueden maximizar simultáneamente.
“Hasta donde sabemos, no existe un modelo o herramienta de cuantificación de confianza para el aprendizaje profundo, la inteligencia artificial y el aprendizaje automático. Este es el primer enfoque y abre nuevas direcciones de investigación”, dice Bogdan.
Bogdan también cree que DeepTrust podría ayudar a impulsar la IA hasta el punto en que sea «consciente y adaptable».