Una red
neuronal es “un nuevo sistema para el tratamiento de la información, cuya
unidad básica de procesamiento está inspirada en la célula fundamental del
sistema nervioso humano: la neurona”.
Las redes neuronales artificiales son
simulaciones computacionales de funciones psicológicas inspiradas en el
conocimiento del funcionamiento del cerebro real, una ventaja de las redes
neurales sobre los modelos computacionales convencionales es que las entradas
degradadas no destruyen las capacidades funcionales del sistema. De manera
similar al daño cerebral humano.
En la actualidad, las redes neurales se
utilizan para una amplia variedad de funciones, muchas de las cuales no tienen
nada que ver con los intentos por comprender el funcionamiento del cerebro
biológico; por ejemplo, el reconocimiento facial, la predicción del movimiento
del mercado bursátil y el moldeamiento de la dinámica de motores El primer
desarrollo de un modelo formal de redes neurales fue el de McCulloch y Pitts
(1943). Después de un periodo de desilusión con los modelos de redes neurales
en las décadas de 1960 y 1970, el decenio de 1980 vio un resurgimiento de
interés y, en la actualidad, tales modelos son comunes dentro de la
neurociencia cognoscitiva
Algunos modelos computacionales se denominan,
diversamente, arquitecturas conexionistas, procesamiento distribuido paralelo,
neurocómputo y computación suave. (Para una introducción al conexionismo en la
psicología cognoscitiva, Ellis y Humphreys, 1999; Harnish, 2002.) Las redes
neuronales son más que otra forma de emular ciertas características propias de
los humanos, como la capacidad de memorizar y de asociar hechos. Si se examinan
con atención aquellos problemas que no pueden expresarse a través de un
algoritmo, se observará que todos ellos tienen una característica en común: la
experiencia. El hombre es capaz de resolver estas situaciones acudiendo a la
experiencia acumulada. Así, parece claro que una forma de aproximarse al
problema consista en la construcción de sistemas que sean capaces de reproducir
esta característica humana. En definitiva, las redes neuronales no son más que
un modelo artificial y simplificado del cerebro humano, que es el ejemplo más
perfecto del que disponemos para un sistema que es capaz de adquirir
conocimiento a través de la experiencia. Las redes neurales modernas contienen
un número de características particulares: a) procesamiento local en neuronas
artificiales (elementos de procesamiento: EP); b) procesamiento masivo en
paralelo que consiste de ricas conexiones entre EP); c) la capacidad de
aprender de la
experiencia a través del entrenamiento; y
d) almacenamiento del conocimiento en la forma de memorias.
El elemento de procesamiento:
(Neurona conceptual o artificial) forma la
unidad básica de procesamiento de las redes neurales Una red neuronal
artificial funciona mediante la creación de conexiones entre muchos elementos
de procesamiento diferentes, cada uno similar a una sola neurona en un cerebro
biológico. Estás neuronas pueden estar físicamente construidas o simuladas por
una computadora digital. Cada neurona tiene muchas señales de entrada y luego,
sobre la base de un sistema de peso interno, produce una sola señal de salida
que es normalmente enviada como entrada a otra neurona..
CAPAS NEURONALES:
Capas de entrada y salida: Las neuronas
están estrechamente interconectadas y organizadas en capas diferentes. La capa
de entrada recibe la entrada, la capa de salida produce el resultado final. Por
lo general, una o más capas ocultas se intercalan entre las dos. Esta
estructura hace que sea imposible predecir o conocer el caudal exacto de los
datos .Una red neural contiene algunas características importantes. Primero, se
encuentra la capa de entrada.
Ejemplo las neuronas con son sensibles a
la señal de entrada (p. ej., la luminosidad/oscuridad de una imagen
computacional se leería como el código binario correspondiente). Segundo, se
encuentra la capa de salida: las neuronas con producen salidas (pre especificadas)
que, después del entrenamiento correcto, corresponden a la entrada. A menudo
existen capas de asociación intermedias entre las capas de entrada y de salida;
en los sistemas complejos, éstas se utilizan para abstraer funciones de orden
superior, para inferir relaciones complejas y para formar representaciones
internas de la estructura del patrón subyacente de entradas/salidas
Existe un número de reglas de aprendizaje
disponibles para guiar la construcción interna de las redes neurales.
Estas reglas son algoritmos matemáticos
utilizados para determinar el peso de las entrada Regla de Hebb. Ésta es la
regla más antigua y la más conocida, introducida por Donald Hebb (1949). Esta
regla afirma: si una neurona recibe una entrada de otra neurona, y si ambas
están altamente activas y tienen el mismo signo (ya sea excitatorio o
inhibitorio), entonces se fortalece el peso entre ambas neuronas.
Regla de Hopfield. Esta regla es similar a
la Regla de Hebb; afirma: si la salida deseada y la entrada, ambas, están
activas o inactivas, aumenta el peso de la conexión según la tasa de
aprendizaje, de lo contrario, disminuye el peso según la tasa de aprendizaje
(es decir, una constante predeterminada).
Regla Delta. Ésta es otra variación de la
Regla de Hebb y se utiliza ampliamente en las redes neurales. Esta regla
continuamente cambia las fuerzas de las conexiones de entrada para reducir la
diferencia (delta) entre el valor de salida deseado y la salida real de la
neurona.
Regla de Kohonen. Esta regla se inspiró en
el aprendizaje de los sistemas biológicos. En este sistema, las neuronas
compiten por la oportunidad de aprender o de actualizar sus pesos. El
procedimiento funciona cuando la neurona con de procesamiento con la salida más
grande es declarada la ganadora y esta neurona con ganadora tiene la capacidad
de inhibir a sus competidores.
Tipos de aprendizaje
Se ha mencionado ya que una de las
características fundamentales de las Redes Neuronales es su adaptabilidad y su
susceptibilidad de aprendizaje, a través de la modificación de los pesos de las
interconexiones entre las diferentes neuronas. Hay dos formas fundamentales de
aprendizaje:
Aprendizaje supervisado, que requiere la
presencia de un tutor externo y una serie de patrones de aprendizaje.
Aprendizaje no supervisado, que utiliza
datos de entrenamiento no etiquetados previamente y no necesita tutor externo.
Los datos son presentados simplemente a la red
Aprendizaje por retropropagación del error
La principal deficiencia de los algoritmos de aprendizaje referidos es que no
pueden ser utilizados cuando hay más de una capa de pesos qué ajustar RED
NEURONAL ARTIFICIAL:
No hay comentarios:
Publicar un comentario