UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO LÍNEA DE APRENDIZAJE: REDES NEURONALES INGENIERO: MARCO ANTONIO LOPEZ PAREDES RED MONOCAPA Y MULTICAPA ICO 17 5to Semestre “Cachorros” Rogelio Valdés Sánchez Juan Carlos Tomas Reyes Oscar Longinos Velázquez Oliver Sánchez Cruz Levi Guadarrama Tercero
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Las unidades de las redes Hopfield son binarias, es decir, sólo
tienen dos valores posibles para sus estados y el valor se
determina si las unidades superan o no un determinado umbral.
Los valores posibles pueden ser 1 ó -1, o bien 1 ó 0.
Red de Hopfield
BRAIN STATE IN A BOX (BSB)
James Anderson, que desarrolló un
modelo lineal, llamado Asociador Lineal,
que consistía en unos elementos
integradores lineales (neuronas) que
sumaban sus entradas.
Dentro de sus características podemos mencionar las siguientes:
•BSB es generalmente una red recurrente auto asociativa.
•Es una red monocapa de n unidades (neuronas) totalmente
conectadas.
•Es prácticamente una red de Hopfield con conexiones auto
recurentes que pueden tomar valores diferentes de cero.
•BSB aprende de manera auto organizada usando el postulado de
Hebb.
•Es capaz de efectuar cálculos basados en la dinámica de atractores.
•El estado del sistema es atrapado dentro de una caja cuadrada,
como una hiperregión delimitada en un hipercubo [+1, -1].
•Los estados estables de la red son representados por las aristas de
un hipercubo n dimensional
•Los valores de entrada de cada neurona es un valor analógico.
•El estado de salida de cada neurona es un valor real continuo entre
+1 y -1. Tiende a saturarse a estos últimos valores.
•La región de una red con n nodos es un hipercubo n dimensional.
•El BSB posee una función de energía (Lyapunov).
•El modelo BSB es una red que minimiza su estado de energía.
•La función de energía E del modelo BSB decrece con el numero de
iteraciones hasta alcanzar un punto de equilibrio.
Maquina estocástica de Botzmann
Maquina estocástica de Botzmann
Redes Neuronales
Multicapa
Introducción.
Los sistemas neurales artificiales imitan la estructura del hardware del
sistema nervioso, con la intención de construir sistemas de procesamiento
de información paralelos, distributivos y adaptivos, que puedan presentar
un cierto comportamiento “Inteligente”.
Cuando las neuronas de una capa reciben señales
de entrada de otra capa anterior, mas cercana a la
red, y envían señales de salida a una capa posterior,
estamos ante una red de conexiones hacia adelante
o Feedforward.
Red Multicapa
Son especialmente útiles en aplicación de
reconocimiento o clasificación e patrones.
Uso
La mayoría se las redes
multicapa son Bicapa; este
tipo de estructura es
particularmente adecuada par
realizar una asociación de la
información o patrón de
entrada con otra información
patrón de salida en la segunda
capa.
Redes con conexiones
hacia adelante y hacia atrás
(feedforward / feedback):
En este tipo de redes
circula información tanto
hacia adelante como hacia
atrás durante el
funcionamiento de la red.
Para que esto sea posible,
existen conexiones
feedforward y conexiones
feedback entre las neuronas.
También existen algunas que
tienen conexiones laterales
entre neuronas de la
misma capa. Estas
conexiones se diseñan
como excitadores (con
peso positivo) o
inhibidoras (con peso
negativo), estableciendose
una competencia entre las
neuronas correspondientes.
Redes Con Conexiones Hacia Adelante Y Hacia
Atrás
(feedforward / Feedback)
Perceptron El perceptrón multicapa consta de una capa de entrada
y una capa de salida y una o más capas ocultas. Dichascapas se unen de forma total hacia delante, esto es, lacapa entrada se une con la primera capa oculta y estacon la siguiente y la última capa oculta se une con lacapa de salida. Los valores que el perceptrón multicapaacepta son reales.
Las capas pueden clasificarse en tres tipos:
•Capa de entrada: Constituida por aquellas neuronas que
introducen los patrones de entrada en la red. En estas neuronas no
se produce procesamiento.
•Capas ocultas: Formada por aquellas neuronas cuyas entradas
provienen de capas anteriores y cuyas salidas pasan a neuronas de
capas posteriores.
•Capa de salida: Neuronas cuyos valores de salida se corresponden
con las salidas de toda la red.
Perceptron
Adaline
Adaline posee la ventaja de que su gráfica de error es un
hiperparaboloide que posee o bien un único mínimo global, o bien
una recta de infinitos mínimos, todos ellos globales. Esto evita la
gran cantidad de problemas que da el perceptrón a la hora del
entrenamiento debido a que su función de error (también llamada