REDES NEURONALES ARTIFICIALES

Una red neuronal es “un nuevo sistema para el tratamiento de la información, cuya unidad básica de procesamiento está inspirada en la célula fundamental del sistema nervioso humano: la neurona”.
Las redes neuronales artificiales son simulaciones computacionales de funciones psicológicas inspiradas en el conocimiento del funcionamiento del cerebro real, una ventaja de las redes neurales sobre los modelos computacionales convencionales es que las entradas degradadas no destruyen las capacidades funcionales del sistema. De manera similar al daño cerebral humano.
En la actualidad, las redes neurales se utilizan para una amplia variedad de funciones, muchas de las cuales no tienen nada que ver con los intentos por comprender el funcionamiento del cerebro biológico; por ejemplo, el reconocimiento facial, la predicción del movimiento del mercado bursátil y el moldeamiento de la dinámica de motores El primer desarrollo de un modelo formal de redes neurales fue el de McCulloch y Pitts (1943). Después de un periodo de desilusión con los modelos de redes neurales en las décadas de 1960 y 1970, el decenio de 1980 vio un resurgimiento de interés y, en la actualidad, tales modelos son comunes dentro de la neurociencia cognoscitiva

Algunos modelos computacionales se denominan, diversamente, arquitecturas conexionistas, procesamiento distribuido paralelo, neurocómputo y computación suave. (Para una introducción al conexionismo en la psicología cognoscitiva, Ellis y Humphreys, 1999; Harnish, 2002.) Las redes neuronales son más que otra forma de emular ciertas características propias de los humanos, como la capacidad de memorizar y de asociar hechos. Si se examinan con atención aquellos problemas que no pueden expresarse a través de un algoritmo, se observará que todos ellos tienen una característica en común: la experiencia. El hombre es capaz de resolver estas situaciones acudiendo a la experiencia acumulada. Así, parece claro que una forma de aproximarse al problema consista en la construcción de sistemas que sean capaces de reproducir esta característica humana. En definitiva, las redes neuronales no son más que un modelo artificial y simplificado del cerebro humano, que es el ejemplo más perfecto del que disponemos para un sistema que es capaz de adquirir conocimiento a través de la experiencia. Las redes neurales modernas contienen un número de características particulares: a) procesamiento local en neuronas artificiales (elementos de procesamiento: EP); b) procesamiento masivo en paralelo que consiste de ricas conexiones entre EP); c) la capacidad de aprender de la
experiencia a través del entrenamiento; y d) almacenamiento del conocimiento en la forma de memorias.
El elemento de procesamiento:
(Neurona conceptual o artificial) forma la unidad básica de procesamiento de las redes neurales Una red neuronal artificial funciona mediante la creación de conexiones entre muchos elementos de procesamiento diferentes, cada uno similar a una sola neurona en un cerebro biológico. Estás neuronas pueden estar físicamente construidas o simuladas por una computadora digital. Cada neurona tiene muchas señales de entrada y luego, sobre la base de un sistema de peso interno, produce una sola señal de salida que es normalmente enviada como entrada a otra neurona..

CAPAS NEURONALES:

Capas de entrada y salida: Las neuronas están estrechamente interconectadas y organizadas en capas diferentes. La capa de entrada recibe la entrada, la capa de salida produce el resultado final. Por lo general, una o más capas ocultas se intercalan entre las dos. Esta estructura hace que sea imposible predecir o conocer el caudal exacto de los datos .Una red neural contiene algunas características importantes. Primero, se encuentra la capa de entrada.
Ejemplo las neuronas con son sensibles a la señal de entrada (p. ej., la luminosidad/oscuridad de una imagen computacional se leería como el código binario correspondiente). Segundo, se encuentra la capa de salida: las neuronas con producen salidas (pre especificadas) que, después del entrenamiento correcto, corresponden a la entrada. A menudo existen capas de asociación intermedias entre las capas de entrada y de salida; en los sistemas complejos, éstas se utilizan para abstraer funciones de orden superior, para inferir relaciones complejas y para formar representaciones internas de la estructura del patrón subyacente de entradas/salidas

Existe un número de reglas de aprendizaje disponibles para guiar la construcción interna de las redes neurales.
Estas reglas son algoritmos matemáticos utilizados para determinar el peso de las entrada Regla de Hebb. Ésta es la regla más antigua y la más conocida, introducida por Donald Hebb (1949). Esta regla afirma: si una neurona recibe una entrada de otra neurona, y si ambas están altamente activas y tienen el mismo signo (ya sea excitatorio o inhibitorio), entonces se fortalece el peso entre ambas neuronas.
Regla de Hopfield. Esta regla es similar a la Regla de Hebb; afirma: si la salida deseada y la entrada, ambas, están activas o inactivas, aumenta el peso de la conexión según la tasa de aprendizaje, de lo contrario, disminuye el peso según la tasa de aprendizaje (es decir, una constante predeterminada).
Regla Delta. Ésta es otra variación de la Regla de Hebb y se utiliza ampliamente en las redes neurales. Esta regla continuamente cambia las fuerzas de las conexiones de entrada para reducir la diferencia (delta) entre el valor de salida deseado y la salida real de la neurona.
Regla de Kohonen. Esta regla se inspiró en el aprendizaje de los sistemas biológicos. En este sistema, las neuronas compiten por la oportunidad de aprender o de actualizar sus pesos. El procedimiento funciona cuando la neurona con de procesamiento con la salida más grande es declarada la ganadora y esta neurona con ganadora tiene la capacidad de inhibir a sus competidores.

Tipos de aprendizaje

Se ha mencionado ya que una de las características fundamentales de las Redes Neuronales es su adaptabilidad y su susceptibilidad de aprendizaje, a través de la modificación de los pesos de las interconexiones entre las diferentes neuronas. Hay dos formas fundamentales de aprendizaje:
Aprendizaje supervisado, que requiere la presencia de un tutor externo y una serie de patrones de aprendizaje.
Aprendizaje no supervisado, que utiliza datos de entrenamiento no etiquetados previamente y no necesita tutor externo. Los datos son presentados simplemente a la red
Aprendizaje por retropropagación del error La principal deficiencia de los algoritmos de aprendizaje referidos es que no pueden ser utilizados cuando hay más de una capa de pesos qué ajustar RED NEURONAL ARTIFICIAL:

No hay comentarios:

Publicar un comentario