¿Qué son las Redes Neuronales? – Unite.AI

¿Qué son las Redes Neuronales Artificiales (RNA)?

Muchos de los mayores avances en IA son impulsado por redes neuronales artificiales. Las redes neuronales artificiales (ANN) son la conexión de funciones matemáticas unidas en un formato inspirado en las redes neuronales que se encuentran en el cerebro humano. Estas ANN son capaces de extraer patrones complejos de los datos, aplicando estos patrones a datos invisibles para clasificar/reconocer los datos. De esta forma, la máquina “aprende”. Ese es un resumen rápido de las redes neuronales, pero echemos un vistazo más de cerca a las redes neuronales para comprender mejor qué son y cómo funcionan.

Perceptrón multicapa explicado

Antes de ver redes neuronales más complejas, vamos a tomarnos un momento para ver una versión simple de una ANN, un perceptrón multicapa (MLP).

Imagine una línea de montaje en una fábrica. En esta línea de ensamblaje, un trabajador recibe un artículo, le hace algunos ajustes y luego se lo pasa al siguiente trabajador en la línea que hace lo mismo. Este proceso continúa hasta que el último trabajador de la línea le da los últimos toques al artículo y lo coloca en una cinta que lo sacará de la fábrica. En esta analogía, hay múltiples “capas” en la línea de ensamblaje, y los productos se mueven entre capas a medida que pasan de un trabajador a otro. La línea de montaje también tiene un punto de entrada y un punto de salida.

Se puede pensar en un perceptrón multicapa como una línea de producción muy simple, compuesta de tres capas en total: una capa de entrada, una capa oculta y una capa de salida. La capa de entrada es donde los datos se introducen en el MLP, y en la capa oculta algunos “trabajadores” manejan los datos antes de pasarlos a la capa de salida que entrega el producto al mundo exterior. En el caso de un MLP, estos trabajadores se denominan “neuronas” (o, a veces, nodos) y cuando manejan los datos, los manipulan a través de una serie de funciones matemáticas.

Dentro de la red, existen estructuras que conectan nodo a nodo denominadas “pesos”. Los pesos son una suposición sobre cómo se relacionan los puntos de datos a medida que se mueven a través de la red. Para decirlo de otra manera, los pesos reflejan el nivel de influencia que una neurona tiene sobre otra neurona. Los pesos pasan por una “función de activación” al salir del nodo actual, que es un tipo de función matemática que transforma los datos. Transforman datos lineales en representaciones no lineales, lo que permite a la red analizar patrones complejos.

La analogía con el cerebro humano implícita en la “red neuronal artificial” proviene del hecho de que las neuronas que componen el cerebro humano se unen de manera similar a como se vinculan los nodos en una ANN.

Si bien los perceptrones multicapa han existido desde la década de 1940, hubo una serie de limitaciones que les impidieron ser especialmente útiles. Sin embargo, en el transcurso de las últimas dos décadas, se creó una técnica llamada “propagación hacia atrás” que permitió a las redes ajustar los pesos de las neuronas y, por lo tanto, aprender de manera mucho más efectiva. La retropropagación cambia los pesos en la red neuronal, lo que permite que la red capture mejor los patrones reales dentro de los datos.

Redes neuronales profundas

Las redes neuronales profundas toman la forma básica del MLP y lo hacen más grande agregando más capas ocultas en el medio del modelo. Entonces, en lugar de que haya una capa de entrada, una capa oculta y una capa de salida, hay muchas capas ocultas en el medio y las salidas de una capa oculta se convierten en las entradas para la siguiente capa oculta hasta que los datos llegan hasta el final. a través de la red y ha sido devuelto.

Las múltiples capas ocultas de una red neuronal profunda pueden interpretar patrones más complejos que el perceptrón multicapa tradicional. Diferentes capas de la red neuronal profunda aprenden los patrones de diferentes partes de los datos. Por ejemplo, si los datos de entrada consisten en imágenes, la primera parte de la red puede interpretar el brillo o la oscuridad de los píxeles, mientras que las capas posteriores seleccionarán formas y bordes que se pueden usar para reconocer objetos en la imagen.

Diferentes tipos de redes neuronales

Hay varios tipos de redes neuronales, y cada uno de los diversos tipos de redes neuronales tiene sus propias ventajas y desventajas (y, por lo tanto, sus propios casos de uso). El tipo de red neuronal profunda descrito anteriormente es el tipo más común de red neuronal y, a menudo, se denomina red neuronal de avance.

Una variación de las redes neuronales es la Red Neural Recurrente (RNN). En el caso de las redes neuronales recurrentes, los mecanismos de bucle se utilizan para contener información de estados de análisis anteriores, lo que significa que pueden interpretar datos donde importa el orden. Los RNN son útiles para derivar patrones a partir de datos secuenciales/cronológicos. Las redes neuronales recurrentes pueden ser unidireccionales o bidireccionales. En el caso de una red neuronal bidireccional, la red puede tomar información de partes posteriores de la secuencia, así como de partes anteriores de la secuencia. Dado que el RNN bidireccional tiene en cuenta más información, es más capaz de dibujar los patrones correctos a partir de los datos.

Una red neuronal convolucional es un tipo especial de red neuronal que es experta en interpretar los patrones que se encuentran dentro de las imágenes. Una CNN opera pasando un filtro sobre los píxeles de la imagen y logrando una representación numérica de los píxeles dentro de la imagen, que luego puede analizar en busca de patrones. Una CNN está estructurada de modo que las capas convolucionales que sacan los píxeles de la imagen vienen primero, y luego vienen las capas de alimentación hacia adelante densamente conectadas, aquellas que realmente aprenderán a reconocer objetos, después de esto.

Deja un comentario