¿
Que es una neurona ?
Antecedentes y Evolución Durante el periodo de 1967 a 1982, la búsqueda
de la neurocomputacion se lleva acabo fuera de Estados Unidos (la
búsqueda en Japón, Europa, y la Unión Soviética). Sin embargo, una
gran empresa investiga una cadena neuronal dentro de un proceso del
principio adaptativo de procesos de imágenes, reconocimiento de patrones
y modelos biológicos. Los primeros años de 1980, muchas investigaciones
de la neurocomputacion empezaron a ser audaces propuestas para explorar
el desarrollo de neurocomputadoras y aplicaciones de redes neuronales.
En el primer lanzamiento de Defense Advanced Rechears Projects Agency
(DARPA), donde Ira Skurnick (un programa maestro para la oficina de
defensa) rechazo a seguir el concepto convencional e insistió a que
escucharan sus argumentos a cerca de sus investigaciones sobre la
neurocomputacion. Audazmente diversifica lo tradicional; Skurnick
empezó sus investigaciones en 1983. Dando el estatus DARPA'S, como
uno de los árbitros mundiales de la moda tecnología.Pocos meses después
el programa maestro de otras organizaciones se consolidaron dando
con esto un gran salto. Skurnic estuvo en el lugar adecuado en el
momento adecuado para hacer una llave de decisión que ayudara al lanzamiento
del renacimiento de la neurocomputacion. Algunas otras fuerzas en
los años de 1983 a 1986 fue Jonh Hopfiel, un físico famoso con reputación
mundial quien comenzó una interesante investigación en redes neuronales
en pocos anos. Hopfiel escribió dos grandes volúmenes de redes neuronales
en 1982 y 1984, que fueron leídas por mucha gente alrededor del mundo
persuadiendo a muchos físicos y matemáticos de todo el mundo a unirse
a la nueva investigación de redes neuronales. En realidad alrededor
de 1986, aproximadamente una tercera parte de toda esta gente se había
vuelto seguidor de Hopfiel. El trabajo de hopfiel ha sido descrito
y su principal contribución a esta ciencia es que la a revitalizado.
En algunos círculos de investigadores se ha desarrollado una confusión
en torno a que Hopfiel invento la neurocomputacion o es el que ha
hecho los adelantos mas significativos. Esta creencia ha generado
gran inconformidad por parte de muchos pioneros especialmente por
aquellos que han estado trabajando muchos años en la obscuridad. Para
1986, con la publicación del libro "PDP" (que significa procesamiento
paralelo distribuido, volúmenes l y ll), editado por David Rumelhart
el camino fue abierto. En 1987, se realizo la primera conferencia
abierta sobre redes neuronales del I.E.E.E. (1700 participantes) fue
hecha en San Diego (anteriormente ha habido conferencias solo que
son extremadamente limitadas por el numero de participantes), y la
Sociedad Internacional de Redes neuronales fue formada en 1988 es
seguida por la computación neuronal en 1989 y el I.E.E.E. Transacción
sobre Redes Neuronales en 1990. Y seguidas por muchas otras. A principios
de 1987, muchas universidades anunciaron la formación de institutos
de investigación y programas de educación acerca de la neurocomputacion.
Alrededor de la neurocomputacion se hace una interesante historia
pero el camino aun se esta desarrollando. Como dijo Winston Churchill
estamos al final del principio. Origen de las Redes Neuronales Las
Redes Neuronales Artificiales son el resultado de investigaciones
académicas que involucran utilizando fórmulas matemáticas para modelar
operaciones del sistema nervioso. Las técnicas resultantes están empezando
a tener éxito en aplicaciones en una variedad de aplicaciones en los
negocios cotidianos. Las Redes Neuronales representan un provechoso
acercamiento para usar las computadoras en los lugares de trabajo.
Una Red Neuronal es usada para aprender patrones y relaciones de datos.
Los datos pueden ser el resultado del esfuerzo de una investigación
de mercado, el resultado de un proceso de producción dando variación
a las condiciones de operación, o las decisiones de un prestamista
dado un conjunto de aplicaciones de préstamo, utilizando una Red Neuronal
es una salida considerable parecida a un enfoque tradicional. Tradicionalmente
un programador o un analista especifican “códigos” de cada faceta
del problema en orden para la computadora pueda “entender” la situación.
Redes Neuronales no requieren el código explícito del problema. Por
ejemplo, para generar un modelo que lleve acabo un pronostico de ventas,
una Red Neuronal solo necesita que le den los datos sin preparar relacionados
con el problema. Los datos sin preparar podrían consistir en: historias
de ventas pasadas, precios, precios de la competencia y otras variables
económicas. La Red Neuronal escoge entre esta información y produce
un acuerdo de los factores que influyen en las ventas. El modelo puede
entonces ser llamado para dar una predicción de ventas futuras dado
un pronostico de los factores claves. Estos adelantos son debido a
la creación de reglas de aprendizaje de una Red Neuronal, que son
los algoritmos usados para “aprender” las relaciones de los datos.
Las reglas de aprendizaje habilitan a la red para “ganar conocimiento”
desde datos disponibles y aplica ese conocimiento para asistir al
gerente para hacer decisiones claves.
¿ Que es una Red Neuronal Artificial ?
Una Red Neuronal Artificial es un modelo de procesamiento de información
que es inspirado por el modo de un sistema nervioso biológico, tal
como el cerebro procesa información. El elemento clave de este paradigma
es la estructura original de el sistema de procesamiento de información.
Este se compone de un gran número de elementos interconectados procesando
(neuronas) trabajando en armonía para resolver problemas específicos.
Las Redes Neuronales Artificiales, como la gente, aprenden con ejemplos.
Una Red Neuronal Artificial es configurada para una aplicación especifica,
tal como el reconocimiento de patrones o clasificación de datos, a
través de un proceso de aprendizaje. Aprender en sistemas biológicos
implica ajustes para las conexiones sinópticas que existen entre las
neuronas. Esto lo hace una Red Neuronal Artificial También. Las Redes
Neuronales Artificiales se han aplicado a un gran número de problemas
reales de complejidad considerable. Su ventaja más importante está
en resolver problemas que son demasiado complejos para tecnologías
convencionales, problemas que no tienen un algoritmo de solución o
que su algoritmo de solución es muy difícil de encontrar. En general,
a causa de su abstracción de el cerebro biológico, Las Redes Neuronales
Artificiales son aptas para resolver problemas que la gente puede
resolver, pero las computadoras no pueden. Estos problemas incluyen
reconocimiento de patrones y pronósticos (los cuales requieren el
reconocimiento de tendencias de datos).
OVFD
Modelos de Redes Neuronales Los modelos de redes neuronales también
conocidos como modelos de procesamiento distribuido en paralelo ó
sistemas neuromorfológicos tienen su principio de funcionamiento basado
en la interconexión de alta densidad de elementos sencillos de cómputo.
La estructura de las redes neuronales ha sido desarrollada de acuerdo
a nuestra comprensión del sistema nervioso biológico. Estos modelos
de redes han tenido gran auge en áreas como el reconocimiento de imágenes
y sonido, ya que dichas redes procesan simultáneamente varias hipótesis
a través de redes paralelas compuestas de elementos de cómputo conectados
a las variables ponderables. Los elementos de cómputo o nodos utilizados
en las redes neuronales son generalmente no lineales y analógicos,
además están caracaterizados por un umbral y offset interno. Algunas
de las no linealidades más comunes son: los limitadores lógicos del
umbral y las no linealidades sigmoidales. Los nodos más complejos
incluyen temporal y otras operaciones matemáticos más complejas. Los
módulos de redes neuronales son especificados de acuerdo a la topología
de la red, las características de los nodos y las reglas de entrenamiento
o aprendisaje. Estas reglas indican un grupo inicial de valores y
como deben modificarse esos valores para obtener un mejor resultdao.
La mayoría de los algoritmos de las redes neuronales realizan lecturas
de los valores a analizar a lo largo del tiempo para obtener basados
en resultados actuales, valores más confiables. Esto con el propósito
que el aprendizaje y la adaptación sean lo más óptimo posible. Para
este fin se utilizan clasificadores, los cuales tienen un grado de
robustez determinado por la capacidad de adaptabilidad de la red,
mayor que los clasificadores estadísticos. Mediante la utilización
de las redes neuronales constituídas por una gran cantidad de circuitos
simples de procesamiento operando en paralelo se ha logrado obtener
la capacidad de proceamiento requerida hoy en día. Modelos de Redes
Neuronales Clasificadores tradicionales y de Red neuronal. Ambos tipos
de clasificadores determinan cual de las M clases es más representativa
de un patron de entrada desconocido conteniendo N elementos. El clasificador
tradicional esta dividido en 2 etapas. La primera etapa computa o
registra los valores de cada clase dándoles un puntaje, y la 2ª etapa
selecciona la clase que contenga el máximo puntaje. Las entradas de
la 1ª etapa son símbolos que representan los valores de los N elementos
de entrada, éstos son introducidos secuencialmente y decodificados
para poder ser manipulados adecuadamente. Un algoritmo computa el
puntaje de cada una de la M clases, lo cual servirá para indicar quetan
igual o diferente es este valor de entrada comparada con el patron
ejemplar para cada clase. Después los resultados son codificados y
pasados secuencialmente de la 2ª etapa del clasificador donde son
decodificados y la clase con mayor puntaje es seleccionada, por lo
que después de que la clasificación ha sido completada solamente la
salida correspondiente a la clase seleccionada estará en alto y las
demás salidas en baja. Segundo, los clasificadores pueden ser utilizados
como contenedores direccionables o memorias asociativas. Y tercero,
cuantifica vectorialmente o agrupa las N entradas en los M grupos.
Las redes entrenadas sin supervisión, como las redes formadas mediante
la estructura Kohonen, son utilizadas como cuantificadores vectroriales
o para formar grupos. La red neuronal Hamming es implementada como
el clasificador más optimo para patrones binarios contaminados por
ruido aleatorio. Red Hopfield Este tipo de red se usa normalmente
cuando se tienen entradas binarias, y no son muy utilizadas cuando
los valores de entrada son continuos, debido al problema de representación
que se presenta cuando desea convertirse las cantidades continuas
en valores binarios. Este tipo de red tiene N nodos que contienen
fuertes no linealidades y entradas y salidas binarias alrededor de
los valores +1 y -1. La salida de cada nodo se retroalimenta a los
demás nodos. Hopfield también demuestra que las redes convergen cuando
el grado similar de no linealidades para la no linealización de sigmoid.
Las ramas de Hopfield tiene 2 limitaciones mayores cuando se usa como
un contenido de memoria direccionable. Primero el número de los patrones
que pueden inicializar y precisamente vuelto a llamar es limitada
severamente. La segunda limitaciónn de la rama del hopfield es que
un patron ejemplar será inestable si los patrones de varios bits son
comunes a otro patrón similar. La distancia hamming es el número de
bits en la entrada la cual no hace par el correspondiente ejemplo
de bits. El MAXNET siempre será convergente y encuentra nodo con el
valor máximo cuando e<1/M. El número de las conexiones en la red Hamming
crece linealmente. La red Hamming no puede dañar de espurios las salidas
patrones cuando puede producir un resultado (no-par). El algoritmo
lider selecciona la primera entrada como el primer ejemplar para el
primer grupo. La siguiente entrada es compartida con el primer grupo
ejemplar. Esta sigue al lider y es agrupado con el primero, si la
distancia de el primero es menor que un umbral. De otro modo este
es el ejemplo para un nuevo grupo. El número de grupos de esta forma
crece con el tiempo y depende en ambos el umbral y la distancia métrica
usada para comparar entradas para los grupos ejemplares. Esta red
difiere de la red Himming en que las conexiones de retroalimentación
están provistas de los nodos de salida a los nodos de entrada. El
algoritmo Carponter/Grossberg puede funcionar bien con un patron de
entrada perfecto paro eso iguala una pequeña cantidad de ruido que
puede causar problemas.
SINGLE LAYER PERCEPTRON
El single layer perceptron puede ser usado por ambos estimados continuos
y entradas binarias. El nodo simple calcula una amplia cantidad de
los elementos de entrada, sustraiendo un umbral (q) y pasa al resultado
através de una dura no linealización limitada. Nuevamente al terminar
(h) cuyo rango es de 0.0 a 1.0 y controla el coeficiente de adaptación.
Un problema con la percepción del procedimiento de convergencia es
que los limites de decisión pueden oscilar continuamente cuando las
entradas no son separadas y las distribuciones superpuestas.
MULTI-LAYER PERCEPTRON
Multi-layer perceptron son redes de alimentación adelantada con uno
o más capas de nodos entre los nodos de entrada y salida. Si los nodos
fueron elementos lineales entonces una red sigle-layer con aproximadamente
pesos escojidos pudiera exactamente duplicar estas operaciones ejecutadas
por cualquier red multi-layer. No más de tres capas son requeridas
en un perceptron-like de las redes de alimentaciñon adelantada por
que una red de tres capas puede generar arbitrariaamente regiones
de decisiones complejas. El número de nodos en una segunda capa debe
ser más grande que uno cuando las regiones de decisión son desconectadas
o enredadas y no pueden estar formadas de un área convexa. El número
de los nodos de la segunda capa requiere en el peor caso ser igual
al número de las regiones desconectadas en las entradas distribuidas.
El número de nodos en la primera capa debe típicamente ser sufiente
para proveer tres o más aristas por cada área convexa generada por
cada nodo de la segunda capa. Podría así tipicamente ser más de tres
veces mucho más nodos en la segunda como el la primer capa. Kolmogoroy
describe que muchas funciones continuas de N variables pueden ser
calculadas usando solo simulaciones lineales y no lineales pero continuamente
las funciones incrementan en una solo variable. Si efectivamente los
estados que una capa tres perceptron con N(2N+1) nodos usados continuamente
crecientes no lineales pueden registrar cualquier función continua
de N variables. Un perceptron capa tres podría así ser usado para
crear cualquier función de probabilidad continua requerida en una
clasificación. Diferente de la calsificación Carpenter/Grossbery,
este algoritmo puede ejecutarse relativamente bien en ruido, por que
el número de clases esta arreglado, los pesos adaptados lentamente
y detiene la adaptación después aprender.
CONCLUSIÓN
El más grande crecimiento potencial de las redes neuronales permanece
en el proceso de alta velocidad que podría ser proveído a través de
implementaciones paralelas VLSI masivamente.
Lourdes Arroyo