jueves, 11 de mayo de 2017

REDES DE PROPAGACION HACIA ATRAS

Consiste en un aprendizaje de un conjunto predefinido de pares de entradas-salidas dados como ejemplo, empleando un ciclo propagación-adaptación de dos fases.
  • La red Back-Propagation está basada en la generalización de la regla delta.
  • Al igual que el Perceptron, ADALINE y MADALINE, la red Back-Propagation se caracteriza por tener una arquitectura en niveles y conexiones estrictamente hacia adelante entre las neuronas.
  • Utilizan aprendizaje supervisado.

FASES

  1. se aplica un patrón de entrada como estímulo para la primera capa de las neuronas de la red, se va propagando a través de todas las capas superiores hasta generar una salida.
    Después  se compara el resultado obtenido en las neuronas de salida con la salida que se desea
    obtener y se calcula un valor del error para cada neurona de salida.
  2. Estos errores se transmiten hacia atrás, partiendo de la capa de salida, hacia todas las neuronas de la capa intermedia que contribuyan directamente a la salida, recibiendo el porcentaje de error aproximado a la participación de la neurona intermedia en la salida original.
Ya entrenada la red se podrá aplicar esa misma relación (terminado el entrenamiento), a nuevos vectores de entrada con ruido o incompletos, dando una salida activa si la nueva entrada es parecida a las presentadas durante el aprendizaje.

Estructura de Aprendizaje


  • Capa de entrada con n neuronas.
  • Capa de salida con m neuronas.
  • Al menos una capa oculta de neuronas.
  • Cada neurona de una capa recibe entradas de todas las neuronas de la capa anterior y envía su salida a todas las neuronas de la capa posterior. No hay conexiones hacia atrás  ni laterales entre neuronas de la misma capa.

Control de Convergencia


La velocidad de aprendizaje se controla mediante . Normalmente, debe ser un número entre 0.05 y 0.25.

Velocidad de convergencia
  • El valor se aumenta a medida que disminuye el error.
  • Añadir un momento (sumar una fracción del ajuste de peso anterior al ajuste actual).
Si una red deja de aprender :
  • Realizar un cambio en el numero de neuronas ocultas.
  • Volver a empezar con un conjunto distinto de pesos.

Algoritmo de Retro-propragacion



No hay comentarios.:

Publicar un comentario

CONEXIONES ENTRE NEURONA

La conectividad entre los nodos de una red neuronal está relacionada con la forma en que las salidas de las neuronas están canalizadas para ...