jueves, 11 de mayo de 2017

REDES MULTICAPA

Para hablar de redes multicapa en primer lugar debemos hablar del perceptron


El perceptrón

Fue el primer modelo de red neuronal artificial desarrollado en 1958 por Rosenblatt. Despertó un enorme interés en los años 60 debido a su capacidad para aprender a reconocer patrones sencillos.
Está formado por varias neuronas para recibir las entradas a la red y una neurona de salida que es capaz de decidir cuándo una entrada a la red pertenece a una de las dos clases que es capaz de reconocer.


Redes Neuronales Multicapa


Estas están formadas por varias capas de neuronas, las cuales se pueden conectar entre ellas. Estas se ordenan de acuerdo como reciben la señal desde la entrada hasta la salida y se denominan conexiones feedforward “quiere decir hacia delante”.
También existen otras redes las cuales se unen al contrario desde la salida a la entrada, de la forma contraria a como llega las señales y se les llama feedback “hacia atrás” o “retroalimentadas”.

Ver Video :

Redes con Conexiones Hacia Adelante 


Este tipo de redes solo se pueden conectar hacia delante.
Ejemplos de estas redes son Perceptron, Adaline, Madaline.

Ejemplos:

Perceptrón

Es una red neuronal artificial (RNA) formada por múltiples capas, de entrada, intermedias y de salida, esto le permite resolver problemas que no son linealmente separables, lo cual es la principal limitación. Su alimentación es hacia adelante y la unidad de salida se conecta con la última capa oculta. 

Topología de un perceptrón multicapa




Adaline




Es un tipo de red neuronal artificial, esta posee la ventaja de que su gráfica de error es un hiperparaboloide que posee un mínimo global, o bien una recta de infinitos mínimos, esto evita la gran cantidad de problemas que da el perceptrón a la hora del entrenamiento debido a que su función de error posee numerosos mínimos locales.

Es menos sensible al ruido y tiene usos prácticos en el procesamiento de señales digitales.

El aprendizaje OFF-LINE con supervisión LMS “o regla del mínimo error cuadrático medio, (widrow) o regla delta”. El cual trata de minimizar una diferencia entre el valor obtenido y el deseado; como en el perceptrón, solo que ahora la salida considerada es la salida obtenida al aplicar una función de activación lineal. 

La red ADALINE es muy similar al PERCEPTRON, excepto que su función de transferencia es lineal, en vez de escalón.

Tanto el ADALINE como el PERCEPTRON sufren de la misma limitación los cuales solo pueden resolver problemas linealmente separables. 


No hay comentarios.:

Publicar un comentario

CONEXIONES ENTRE NEURONA

La conectividad entre los nodos de una red neuronal está relacionada con la forma en que las salidas de las neuronas están canalizadas para ...