Investigadores de la Universidad de San Diego han desarrollado un nuevo dispositivo de neurona artificial que puede ejecutar cálculos neuronales con 100 a 1000 veces menos energía y área que el hardware actual basado en CMOS.
El reciente informe fue publicado en un papel el 18 de marzo en Nature Nanotechnology.
Para generar la entrada para una de las capas conectadas de neuronas artificiales en redes neuronales, se debe aplicar un cálculo matemático llamado función de activación no lineal. Sin embargo, esta aplicación requiere mucha potencia informática y circuitos debido a la necesidad de transferir datos entre la memoria y el procesador externo.
Los investigadores de UC San Diego desarrollaron un nuevo dispositivo de tamaño nanométrico que puede llevar a cabo esta función de activación de manera mucho más eficiente.
Duygu Kuzum es profesor de ingeniería eléctrica e informática en la Escuela de Ingeniería UC San Diego Jacobs.
“La computación de redes neuronales en hardware se vuelve cada vez más ineficiente a medida que los modelos de redes neuronales se vuelven más grandes y complejos”, dijo Kuzum. «Desarrollamos un único dispositivo de neurona artificial a nanoescala que implementa estos cálculos en hardware de una manera muy eficiente en términos de área y energía».
El estudio fue dirigido tanto por Kuzum como por el estudiante de doctorado Shangheon Oh, y colaboraron con el profesor de física de UC San Diego, Ivan Schuller, quien dirige un Centro de Investigación de la Frontera Energética del DOE. El centro está involucrado en el desarrollo de implementaciones de hardware de redes neuronales artificiales energéticamente eficientes.
El nuevo dispositivo
El dispositivo recientemente desarrollado se basa en una unidad lineal rectificada, que es una de las funciones de activación más comunes utilizadas en el entrenamiento de redes neuronales. Requiere hardware que pueda sufrir cambios graduales en la resistencia, que es a lo que apuntaban los ingenieros. El dispositivo puede cambiar gradualmente de un estado aislante a uno conductor con una pequeña cantidad de calor.
Denominado transición de Mott, este cambio ocurre en una capa extremadamente delgada de dióxido de vanadio, y encima de esta capa hay un calentador de nanocables hecho de titanio y oro. La capa de dióxido de vanadio se calienta lentamente cuando la corriente fluye a través del nanocable, y esto provoca un cambio lento y controlado de aislante a conductor.
Oh es el primer autor del estudio.
“La arquitectura de este dispositivo es muy interesante e innovadora”, dijo Oh. “En este caso, hacemos fluir corriente a través de un nanocable en la parte superior del material para calentarlo e inducir un cambio de resistencia muy gradual”.
Implementación del dispositivo
Para la implementación, el equipo fabricó una matriz de dispositivos de activación y una matriz de dispositivos sinápticos, seguida de la integración de los dos en una placa de circuito impreso personalizada. Luego se conectaron entre sí, lo que resultó en una versión de hardware de una red neuronal.
La red se utilizó para procesar una imagen a través de la detección de bordes, identificando los contornos y bordes de los objetos en la imagen. El sistema de hardware integrado demostró su capacidad para realizar operaciones de convolución que son importantes para varios tipos de redes neuronales profundas.
“En este momento, esta es una prueba de concepto”, dijo Kuzum. “Es un sistema diminuto en el que solo apilamos una capa de sinapsis con una capa de activación. Al apilar más de estos juntos, podría crear un sistema más complejo para diferentes aplicaciones”.