Los
modelos
de redes neuronales también conocidos como modelos de procesamiento distribuido
en paralelo ó
sistemas neuromorfológicos
tienen su principio de funcionamiento basado en la interconexión de alta
densidad de elementos sencillos de cómputo.
La
estructura
de las redes neuronales ha sido desarrollada de acuerdo a nuestra comprensión
del sistema nervioso biológico.
Estos
modelos
de redes han tenido gran auge en áreas como el reconocimiento de imágenes y
sonido, ya que dichas redes procesan simultáneamente varias hipótesis a través
de redes paralelas compuestas de elementos de cómputo conectados a las
variables ponderables. Los elementos de cómputo o nodos utilizados en las redes
neuronales son generalmente no lineales y analógicos, además están
caracterizados por un umbral y offset interno.
Existe
una serie de modelos que aparecen en la mayoría de estudios académicos y la
bibliografía especializada.
·Perceptrón
·Adaline
·Perceptrón multicapa
·Memorias
asociativas
·Máquina
de Boltzmann
·Máquina
de Cauchy
·Propagación
hacia atrás
(backpropagation)
·Redes
de Elman
·Redes
de Hopfield
·Red
de contrapropagación
·Redes
de neuronas de base
radial
·Redes
de neuronas de aprendizaje competitivo
·Mapas
Autoorganizados
(RNA) (Redes de Kohonen)
·Crecimiento
dinámico de células
·Gas
Neuronal Creciente
·Redes
ART (Adaptative
Resonance
Theory)
El PERCEPTRÓN
Dentro
del campo de las redes neuronales tiene dos acepciones. Puede referirse a un
tipo de red neuronal artificial desarrollado por Frank Rosenblatt.Y
dentro
de la misma teoría de Frank Rosenblatt. También puede entenderse como la neurona artificial
y
unidad básica de inferencia en forma de discriminador lineal, es decir, un
algoritmo capaz de generar un criterio para seleccionar un sub-grupo, de un
grupo de componentes más grande.
Ejemplo:
Considere las funciones AND y OR,
estas funciones son linealmente separables y por lo tanto pueden ser aprendidas
por un perceptrón.
La
función XOR no puede ser aprendida por un único perceptrón
puesto que requiere al menos de dos líneas para separar las clases (0 y 1).
Debe utilizarse al menos una capa adicional de perceptrones para permitir su aprendizaje.
El
adaline (de
ADAptative
LINear Element)
es un tipo de red neuronal artificial desarrollada por el profesor Bernie Widrow y su
alumno Ted Hoff en
la Universidad de Stanford en 1960.1
Generalmente
se compone de una sola capa de n neuronas (por tanto n valores de salida) con m
entradas con las siguientes características:
•Las m entradas representan un vector de entrada que pertenece al espacio.
•Por cada neurona, existe un vector de pesos sinápticos que indican la fuerza de
conexión entre los valores de entrada y la neurona. En la práctica representan
la ponderación de cada entrada sobre la neurona.
•Una constante .
•La salida
de la neurona se representa por la función de activación, que se define
como
El perceptrón multicapa es una red neuronal artificial (RNA)
formada por múltiples capas, esto le permite resolver problemas que no son
linealmente separables, lo cual es la principal limitación del perceptrón
(también llamado perceptrón simple). El perceptrón
multicapa puede ser totalmente o localmente conectado. En el primer caso cada
salida de una neurona de la capa "i" es entrada de todas las neuronas
de la capa "i+1", mientras que en el segundo cada neurona de la capa
"i" es entrada de una serie de neuronas (región) de la capa
"i+1".

Las
capas pueden clasificarse en tres tipos:
·Capa
de entrada: Constituida por aquellas neuronas que introducen los patrones de
entrada en la red. En estas neuronas no se produce procesamiento.
·Capas
ocultas: Formada por aquellas neuronas cuyas entradas provienen de capas
anteriores y cuyas salidas pasan a neuronas de capas posteriores.
·Capa
de salida: Neuronas cuyos valores de salida se corresponden con las salidas de
toda la red.
La propagación hacia atrás (también conocido
como retropropagación del error o regla delta generalizada),
es un algoritmo utilizado en el entrenamiento de estas redes, por ello, el perceptrón
multicapa también es conocido como red
de retropropagación (no confundir con la red de contra
propagación).
MEMORIA
ASOCIATIVA (RNA)
La memoria asociativa es el almacenamiento y recuperación de
información por asociación con otras informaciones.
Un
dispositivo de almacenamiento de información se llama memoria asociativa si
permite recuperar información a partir de conocimiento parcial de su contenido,
sin saber su localización de almacenamiento. A veces también se le llama
memoria de direccionamiento por contenido
Los
computadores tradicionales no usan este direccionamiento; se basan en el
conocimiento exacto de la dirección de memoria en la que se encuentra la
información.
Una
memoria asociativa puede almacenar información y recuperarla cuando sea
necesario, es decir, una red retroalimentada, cuya salida se utiliza
repetidamente como una nueva entrada hasta que el proceso converge. Puede
recuperar dicha información basándose en el conocimiento de parte de ésta
(clave). El patrón clave puede ser una versión con ruido de un patrón
memorizado, es decir, que difiere de él en pocas componentes. La memoria humana
recuerda a una persona aunque vaya vestida de forma diferente o lleve gafas.
Tipos de memorias asociativas.
·Memorias
heteroasociativas
·Memorias
autoasociativas
MÁQUINA DE BOLTZMANN
Una máquina de Boltzmann es un tipo de
red neuronal recurrente estocástica. El nombre le fue dado por los
investigadores Geoffrey Hinton
y Terry Sejnowski.
Las máquinas de Boltzmann
pueden considerarse como la contrapartida estocástica y
generativa de las redes de Hopfield.
Fueron de los primeros tipos de redes neuronales capaces de aprender mediante
representaciones internas, son capaces de representar y (con tiempo suficiente)
resolver complicados problemas combinatorios. Sin embargo, debido a una serie
de cuestiones que se abordan más adelante, las máquinas de Boltzmann
sin restricciones de conectividad no han demostrado ser útiles para resolver
los problemas que se dan en la práctica en el aprendizaje o inferencia de las
máquinas. Aun así resultan interesantes en la teoría debido a la localización y
a la naturaleza hebbiana
de su algoritmo de entrenamiento, así como por su paralelismo y por la
semejanza de su dinámica a fenómenos físicos sencillos. Si se limita la
conectividad, el aprendizaje puede ser lo bastante eficaz como para ser útil en
la resolución de problemas prácticos.
En mecánica estadística se
denominan distribuciones de Boltzmann
y son utilizadas en funciones de muestreo.
HOPFIELD (RNA)
Una red de Hopfield es una forma de red neuronal artificial
recurrente inventada por John Hopfield. Las redes de Hopfield
se usan como sistemas de Memoria asociativa con unidades binarias. Están
diseñadas para converger a un mínimo local, pero la convergencia a uno de los
patrones almacenados no está garantizada.