Un nuevo algoritmo de aprendizaje profundo desarrollado por investigadores del Instituto de Tecnología de California (Caltech) permite que los sistemas autónomos reconozcan dónde están al observar el terreno que los rodea. Por primera vez, esta tecnología puede funcionar sin importar los cambios estacionales en el terreno.
La investigación fue publicada el 23 de junio en la revista ciencia robótica por la Asociación Americana para el Avance de la Ciencia (AAAS).
Navegación relativa al terreno visual
El proceso se denomina navegación relativa al terreno visual (VTRN) y se desarrolló por primera vez en la década de 1960. Los sistemas autónomos pueden ubicarse a sí mismos a través de VTRN al comparar el terreno cercano con imágenes satelitales de alta resolución.
Sin embargo, la generación actual de VTRN requiere que el terreno que está observando coincida estrechamente con las imágenes en la base de datos. Cualquier alteración en el terreno, como nieve u hojas que caen, puede hacer que el sistema falle debido a imágenes que no coinciden. Esto significa que los sistemas VTRN pueden confundirse fácilmente a menos que exista una base de datos de las imágenes del paisaje en todas las condiciones imaginables.
El equipo involucrado en este proyecto proviene del laboratorio de Soon-Jo Chung, profesor Bren de sistemas aeroespaciales y de control y dinámicos y científico investigador en JPL. El equipo utilizó el aprendizaje profundo y la inteligencia artificial (IA) para eliminar el contenido estacional que puede ser problemático para los sistemas VTRN.
Anthony Fragoso es profesor y científico del personal, además de autor principal del artículo Science Robotics.
“La regla general es que ambas imágenes, la del satélite y la del vehículo autónomo, deben tener contenido idéntico para que las técnicas actuales funcionen. Las diferencias que pueden manejar son sobre lo que se puede lograr con un filtro de Instagram que cambia los tonos de una imagen”, dice Fragoso. “Sin embargo, en los sistemas reales, las cosas cambian drásticamente según la temporada porque las imágenes ya no contienen los mismos objetos y no se pueden comparar directamente”.
Aprendizaje autosupervisado
El proceso fue desarrollado por Chung y Fragoso en colaboración con el estudiante graduado Connor Lee y el estudiante universitario Austin McCoy, y utiliza el “aprendizaje autosupervisado”.
En lugar de depender de anotadores humanos para seleccionar grandes conjuntos de datos con el fin de enseñarle a un algoritmo cómo reconocer algo, como es el caso con la mayoría de las estrategias de visión por computadora, este proceso permite que el algoritmo se aprenda a sí mismo. La IA detecta patrones en las imágenes extrayendo detalles y características que el ojo humano pasaría por alto.
Al complementar la generación actual de VTRN con el nuevo sistema, se obtiene una localización más precisa. Un experimento involucró a los investigadores que intentaron localizar imágenes de follaje de verano contra imágenes de hojas invernales utilizando una técnica VTRN basada en correlación. Descubrieron que el 50 por ciento de los intentos resultaron en fallas de navegación, pero cuando insertaron el nuevo algoritmo en el VTRN, el 92 por ciento de los intentos coincidieron correctamente y el otro 8 por ciento pudo identificarse como problemático de antemano.
“Las computadoras pueden encontrar patrones oscuros que nuestros ojos no pueden ver y pueden captar incluso la tendencia más pequeña”, dice Lee. “VTRN estaba en peligro de convertirse en una tecnología inviable en entornos comunes pero desafiantes. Rescatamos décadas de trabajo en la solución de este problema”.
Aplicaciones en el espacio
El nuevo sistema no solo tiene uso para drones autónomos en la Tierra, sino que también puede usarse para misiones espaciales. La misión del rover Mars 2020 Perseverance del JPL utilizó VTRN durante la entrada, el descenso y el aterrizaje en el cráter Jezero, que anteriormente se consideraba demasiado peligroso para una entrada segura.
Según Chung, para rovers como Perseverance, “es necesaria cierta cantidad de conducción autónoma, ya que las transmisiones tardan siete minutos en viajar entre la Tierra y Marte, y no hay GPS en Marte”.
El equipo cree que el nuevo sistema también podría usarse en las regiones polares marcianas, que tienen intensos cambios estacionales. Podría permitir una navegación mejorada para apoyar objetivos científicos, como la búsqueda de agua.
El equipo ahora ampliará la tecnología para tener en cuenta los cambios climáticos, como la niebla, la lluvia y la nieve. Este trabajo podría conducir a sistemas de navegación mejorados para vehículos autónomos.