El avance en los microchips nos acerca a la computación perimetral con IA

Investigadores de la Universidad de Princeton han desarrollado hardware y software codiseñados destinados a aumentar aún más la velocidad y la eficiencia de los sistemas especializados de inteligencia artificial (IA).

Naveen Verma es profesor de ingeniería eléctrica e informática en Princeton y dirige el equipo de investigación.

“El software es una parte fundamental para habilitar nuevo hardware”, dijo Verma. “La esperanza es que los diseñadores puedan seguir usando el mismo sistema de software y hacer que funcione diez veces más rápido y de manera más eficiente”.

Los sistemas desarrollados por los investigadores reducen la demanda de energía y la cantidad de datos necesarios para intercambiar desde servidores remotos. Con esto, las aplicaciones de IA, como el software de pilotaje de drones, pueden tener lugar en el borde de la infraestructura informática.

Verma también es directora del Centro Keller para la Innovación en la Educación en Ingeniería de la Universidad.

“Para hacer que la IA sea accesible para el proceso en tiempo real y, a menudo, personal que nos rodea, debemos abordar la latencia y la privacidad trasladando el cálculo en sí mismo al borde”, dijo Verma. “Y eso requiere eficiencia energética y rendimiento”.

Nuevos diseños de chips

El equipo de Princeton desarrolló un nuevo diseño de chip hace dos años y estaba destinado a mejorar el rendimiento de las redes neuronales. El chip podría funcionar de decenas a cientos de veces mejor que otros microchips en el mercado.

«El principal inconveniente del chip es que utiliza una arquitectura muy inusual y disruptiva», dijo Verma en 2018. «Eso debe reconciliarse con la enorme cantidad de infraestructura y metodología de diseño que tenemos y usamos hoy».

El chip se perfeccionó continuamente durante los siguientes dos años y se creó un sistema de software para permitir que los sistemas de IA utilicen la nueva tecnología de manera eficiente. La idea era que los nuevos chips pudieran permitir que los sistemas fueran escalables en hardware y ejecución de software.

“Es programable en todas estas redes”, dijo Verma. “Las redes pueden ser muy grandes y pueden ser muy pequeñas”.

El mejor escenario para la computación es que tenga lugar en la propia tecnología, en lugar de en una computadora de red remota. Sin embargo, esto requiere grandes cantidades de energía y almacenamiento de memoria, lo que dificulta el diseño de un sistema de este tipo.

Para superar estas limitaciones, los investigadores diseñaron un chip que realiza cálculos y almacena datos en la misma área, lo que se denomina computación en memoria. Esta técnica reduce la energía y el tiempo necesarios para intercambiar información con memoria dedicada.

Para evitar la operación analógica, que se requiere para la computación en memoria y es sensible a la corrupción, el equipo se basó en condensadores en lugar de transistores en el diseño del chip. Los capacitores no enfrentan el mismo efecto por cambios en el voltaje y son más precisos.

A pesar de varios otros desafíos que rodean a los sistemas analógicos, tienen muchas ventajas cuando se usan para aplicaciones como redes neuronales. Los investigadores ahora buscan combinar los dos tipos de sistemas, ya que los sistemas digitales son centrales, mientras que las redes neuronales que dependen de chips analógicos pueden ejecutar operaciones especializadas rápidas y eficientes.

Deja un comentario