Unity es una de las plataformas líderes para desarrollar y operar contenido 3D en tiempo real o RT3D. La compañía ha anunciado recientemente su Object Pose Estimation, que tiene como objetivo potenciar la industria de la robótica, específicamente en el entorno industrial, mediante el uso de tecnologías de simulación y visión artificial.
Demostración de pose de objeto
La demostración de pose de objeto tuvo lugar junto con una demostración correspondiente, mostrando cómo los robots pueden aprender a través de datos sintéticos.
El Dr. Danny Lange es vicepresidente sénior de inteligencia artificial en Unity.
“Este es un poderoso ejemplo de un sistema que aprende en lugar de ser programado y, a medida que aprende de los datos sintéticos, es capaz de capturar patrones mucho más matizados que cualquier programador”, dijo. “La superposición de nuestras tecnologías muestra cómo estamos cruzando una línea, y estamos comenzando a lidiar con algo que es verdaderamente IA y, en este caso, demostrando las eficiencias posibles en el entrenamiento de robots”.
Cuando el Dr. Lange se refiere a la estratificación de las tecnologías de la empresa, se refiere en parte a los lanzamientos recientes de Unity que admiten el sistema operativo de robot (ROS), que es un marco flexible para desarrollar software de robot.
Basado en versiones anteriores
Antes del lanzamiento de la demostración de Object Pose Estimation, Unity lanzó el URDF Importer de la empresa, un paquete Unity de código abierto, junto con el ROS-TCP-Connector, cuyo objetivo es reducir drásticamente la latencia de los mensajes entre los nodos ROS y Unity. Esto permite que el robot que opera en un entorno simulado actúe casi en tiempo real.
A menudo se confía en la tecnología de simulación cuando se prueban aplicaciones en situaciones peligrosas, costosas o raras. Mediante el uso de la simulación, las aplicaciones se pueden validar antes de implementarlas en el robot, lo que permite la detección temprana de posibles problemas. Al combinar el motor de física integrado de Unity y el editor de Unity, puede haber una cantidad infinita de entornos virtuales.
Con la combinación de estas herramientas, la demostración mostró cómo se pueden crear grandes cantidades de datos de entrenamiento etiquetados y sintéticos. Luego se usó para entrenar un modelo simple de aprendizaje profundo para predecir la posición de un cubo. La demostración proporcionó un tutorial para aquellos que buscan recrear el proyecto.
“Con Unity, no solo hemos democratizado la creación de datos, también hemos brindado acceso a un sistema interactivo para simular interacciones avanzadas en un entorno virtual”, continuó Lange.
“Puedes desarrollar los sistemas de control para un vehículo autónomo, por ejemplo, o aquí para brazos robóticos muy costosos, sin el riesgo de dañar el equipo o aumentar drásticamente el costo de las instalaciones industriales. Poder demostrar el riesgo de las aplicaciones previstas en un entorno virtual de alta fidelidad ahorrará tiempo y dinero para muchas industrias que están a punto de ser transformadas por la robótica combinada con la IA y el aprendizaje automático”.