Redes Neuronales

 

 

 

 

 

 

 

 

Por Lourdes Arroyo

(Ver solamente en txt)

¿ Que es una neurona ?

Antecedentes y Evolución Durante el periodo de 1967 a 1982, la búsqueda de la neurocomputacion se lleva acabo fuera de Estados Unidos (la búsqueda en Japón, Europa, y la Unión Soviética). Sin embargo, una gran empresa investiga una cadena neuronal dentro de un proceso del principio adaptativo de procesos de imágenes, reconocimiento de patrones y modelos biológicos. Los primeros años de 1980, muchas investigaciones de la neurocomputacion empezaron a ser audaces propuestas para explorar el desarrollo de neurocomputadoras y aplicaciones de redes neuronales. En el primer lanzamiento de Defense Advanced Rechears Projects Agency (DARPA), donde Ira Skurnick (un programa maestro para la oficina de defensa) rechazo a seguir el concepto convencional e insistió a que escucharan sus argumentos a cerca de sus investigaciones sobre la neurocomputacion. Audazmente diversifica lo tradicional; Skurnick empezó sus investigaciones en 1983. Dando el estatus DARPA'S, como uno de los árbitros mundiales de la moda tecnología.Pocos meses después el programa maestro de otras organizaciones se consolidaron dando con esto un gran salto. Skurnic estuvo en el lugar adecuado en el momento adecuado para hacer una llave de decisión que ayudara al lanzamiento del renacimiento de la neurocomputacion. Algunas otras fuerzas en los años de 1983 a 1986 fue Jonh Hopfiel, un físico famoso con reputación mundial quien comenzó una interesante investigación en redes neuronales en pocos anos. Hopfiel escribió dos grandes volúmenes de redes neuronales en 1982 y 1984, que fueron leídas por mucha gente alrededor del mundo persuadiendo a muchos físicos y matemáticos de todo el mundo a unirse a la nueva investigación de redes neuronales. En realidad alrededor de 1986, aproximadamente una tercera parte de toda esta gente se había vuelto seguidor de Hopfiel. El trabajo de hopfiel ha sido descrito y su principal contribución a esta ciencia es que la a revitalizado. En algunos círculos de investigadores se ha desarrollado una confusión en torno a que Hopfiel invento la neurocomputacion o es el que ha hecho los adelantos mas significativos. Esta creencia ha generado gran inconformidad por parte de muchos pioneros especialmente por aquellos que han estado trabajando muchos años en la obscuridad. Para 1986, con la publicación del libro "PDP" (que significa procesamiento paralelo distribuido, volúmenes l y ll), editado por David Rumelhart el camino fue abierto. En 1987, se realizo la primera conferencia abierta sobre redes neuronales del I.E.E.E. (1700 participantes) fue hecha en San Diego (anteriormente ha habido conferencias solo que son extremadamente limitadas por el numero de participantes), y la Sociedad Internacional de Redes neuronales fue formada en 1988 es seguida por la computación neuronal en 1989 y el I.E.E.E. Transacción sobre Redes Neuronales en 1990. Y seguidas por muchas otras. A principios de 1987, muchas universidades anunciaron la formación de institutos de investigación y programas de educación acerca de la neurocomputacion. Alrededor de la neurocomputacion se hace una interesante historia pero el camino aun se esta desarrollando. Como dijo Winston Churchill estamos al final del principio. Origen de las Redes Neuronales Las Redes Neuronales Artificiales son el resultado de investigaciones académicas que involucran utilizando fórmulas matemáticas para modelar operaciones del sistema nervioso. Las técnicas resultantes están empezando a tener éxito en aplicaciones en una variedad de aplicaciones en los negocios cotidianos. Las Redes Neuronales representan un provechoso acercamiento para usar las computadoras en los lugares de trabajo. Una Red Neuronal es usada para aprender patrones y relaciones de datos. Los datos pueden ser el resultado del esfuerzo de una investigación de mercado, el resultado de un proceso de producción dando variación a las condiciones de operación, o las decisiones de un prestamista dado un conjunto de aplicaciones de préstamo, utilizando una Red Neuronal es una salida considerable parecida a un enfoque tradicional. Tradicionalmente un programador o un analista especifican “códigos” de cada faceta del problema en orden para la computadora pueda “entender” la situación. Redes Neuronales no requieren el código explícito del problema. Por ejemplo, para generar un modelo que lleve acabo un pronostico de ventas, una Red Neuronal solo necesita que le den los datos sin preparar relacionados con el problema. Los datos sin preparar podrían consistir en: historias de ventas pasadas, precios, precios de la competencia y otras variables económicas. La Red Neuronal escoge entre esta información y produce un acuerdo de los factores que influyen en las ventas. El modelo puede entonces ser llamado para dar una predicción de ventas futuras dado un pronostico de los factores claves. Estos adelantos son debido a la creación de reglas de aprendizaje de una Red Neuronal, que son los algoritmos usados para “aprender” las relaciones de los datos. Las reglas de aprendizaje habilitan a la red para “ganar conocimiento” desde datos disponibles y aplica ese conocimiento para asistir al gerente para hacer decisiones claves.

¿ Que es una Red Neuronal Artificial ?


Una Red Neuronal Artificial es un modelo de procesamiento de información que es inspirado por el modo de un sistema nervioso biológico, tal como el cerebro procesa información. El elemento clave de este paradigma es la estructura original de el sistema de procesamiento de información. Este se compone de un gran número de elementos interconectados procesando (neuronas) trabajando en armonía para resolver problemas específicos. Las Redes Neuronales Artificiales, como la gente, aprenden con ejemplos. Una Red Neuronal Artificial es configurada para una aplicación especifica, tal como el reconocimiento de patrones o clasificación de datos, a través de un proceso de aprendizaje. Aprender en sistemas biológicos implica ajustes para las conexiones sinópticas que existen entre las neuronas. Esto lo hace una Red Neuronal Artificial También. Las Redes Neuronales Artificiales se han aplicado a un gran número de problemas reales de complejidad considerable. Su ventaja más importante está en resolver problemas que son demasiado complejos para tecnologías convencionales, problemas que no tienen un algoritmo de solución o que su algoritmo de solución es muy difícil de encontrar. En general, a causa de su abstracción de el cerebro biológico, Las Redes Neuronales Artificiales son aptas para resolver problemas que la gente puede resolver, pero las computadoras no pueden. Estos problemas incluyen reconocimiento de patrones y pronósticos (los cuales requieren el reconocimiento de tendencias de datos).

OVFD

Modelos de Redes Neuronales Los modelos de redes neuronales también conocidos como modelos de procesamiento distribuido en paralelo ó sistemas neuromorfológicos tienen su principio de funcionamiento basado en la interconexión de alta densidad de elementos sencillos de cómputo. La estructura de las redes neuronales ha sido desarrollada de acuerdo a nuestra comprensión del sistema nervioso biológico. Estos modelos de redes han tenido gran auge en áreas como el reconocimiento de imágenes y sonido, ya que dichas redes procesan simultáneamente varias hipótesis a través de redes paralelas compuestas de elementos de cómputo conectados a las variables ponderables. Los elementos de cómputo o nodos utilizados en las redes neuronales son generalmente no lineales y analógicos, además están caracaterizados por un umbral y offset interno. Algunas de las no linealidades más comunes son: los limitadores lógicos del umbral y las no linealidades sigmoidales. Los nodos más complejos incluyen temporal y otras operaciones matemáticos más complejas. Los módulos de redes neuronales son especificados de acuerdo a la topología de la red, las características de los nodos y las reglas de entrenamiento o aprendisaje. Estas reglas indican un grupo inicial de valores y como deben modificarse esos valores para obtener un mejor resultdao. La mayoría de los algoritmos de las redes neuronales realizan lecturas de los valores a analizar a lo largo del tiempo para obtener basados en resultados actuales, valores más confiables. Esto con el propósito que el aprendizaje y la adaptación sean lo más óptimo posible. Para este fin se utilizan clasificadores, los cuales tienen un grado de robustez determinado por la capacidad de adaptabilidad de la red, mayor que los clasificadores estadísticos. Mediante la utilización de las redes neuronales constituídas por una gran cantidad de circuitos simples de procesamiento operando en paralelo se ha logrado obtener la capacidad de proceamiento requerida hoy en día. Modelos de Redes Neuronales Clasificadores tradicionales y de Red neuronal. Ambos tipos de clasificadores determinan cual de las M clases es más representativa de un patron de entrada desconocido conteniendo N elementos. El clasificador tradicional esta dividido en 2 etapas. La primera etapa computa o registra los valores de cada clase dándoles un puntaje, y la 2ª etapa selecciona la clase que contenga el máximo puntaje. Las entradas de la 1ª etapa son símbolos que representan los valores de los N elementos de entrada, éstos son introducidos secuencialmente y decodificados para poder ser manipulados adecuadamente. Un algoritmo computa el puntaje de cada una de la M clases, lo cual servirá para indicar quetan igual o diferente es este valor de entrada comparada con el patron ejemplar para cada clase. Después los resultados son codificados y pasados secuencialmente de la 2ª etapa del clasificador donde son decodificados y la clase con mayor puntaje es seleccionada, por lo que después de que la clasificación ha sido completada solamente la salida correspondiente a la clase seleccionada estará en alto y las demás salidas en baja. Segundo, los clasificadores pueden ser utilizados como contenedores direccionables o memorias asociativas. Y tercero, cuantifica vectorialmente o agrupa las N entradas en los M grupos. Las redes entrenadas sin supervisión, como las redes formadas mediante la estructura Kohonen, son utilizadas como cuantificadores vectroriales o para formar grupos. La red neuronal Hamming es implementada como el clasificador más optimo para patrones binarios contaminados por ruido aleatorio. Red Hopfield Este tipo de red se usa normalmente cuando se tienen entradas binarias, y no son muy utilizadas cuando los valores de entrada son continuos, debido al problema de representación que se presenta cuando desea convertirse las cantidades continuas en valores binarios. Este tipo de red tiene N nodos que contienen fuertes no linealidades y entradas y salidas binarias alrededor de los valores +1 y -1. La salida de cada nodo se retroalimenta a los demás nodos. Hopfield también demuestra que las redes convergen cuando el grado similar de no linealidades para la no linealización de sigmoid. Las ramas de Hopfield tiene 2 limitaciones mayores cuando se usa como un contenido de memoria direccionable. Primero el número de los patrones que pueden inicializar y precisamente vuelto a llamar es limitada severamente. La segunda limitaciónn de la rama del hopfield es que un patron ejemplar será inestable si los patrones de varios bits son comunes a otro patrón similar. La distancia hamming es el número de bits en la entrada la cual no hace par el correspondiente ejemplo de bits. El MAXNET siempre será convergente y encuentra nodo con el valor máximo cuando e<1/M. El número de las conexiones en la red Hamming crece linealmente. La red Hamming no puede dañar de espurios las salidas patrones cuando puede producir un resultado (no-par). El algoritmo lider selecciona la primera entrada como el primer ejemplar para el primer grupo. La siguiente entrada es compartida con el primer grupo ejemplar. Esta sigue al lider y es agrupado con el primero, si la distancia de el primero es menor que un umbral. De otro modo este es el ejemplo para un nuevo grupo. El número de grupos de esta forma crece con el tiempo y depende en ambos el umbral y la distancia métrica usada para comparar entradas para los grupos ejemplares. Esta red difiere de la red Himming en que las conexiones de retroalimentación están provistas de los nodos de salida a los nodos de entrada. El algoritmo Carponter/Grossberg puede funcionar bien con un patron de entrada perfecto paro eso iguala una pequeña cantidad de ruido que puede causar problemas.

SINGLE LAYER PERCEPTRON

El single layer perceptron puede ser usado por ambos estimados continuos y entradas binarias. El nodo simple calcula una amplia cantidad de los elementos de entrada, sustraiendo un umbral (q) y pasa al resultado através de una dura no linealización limitada. Nuevamente al terminar (h) cuyo rango es de 0.0 a 1.0 y controla el coeficiente de adaptación. Un problema con la percepción del procedimiento de convergencia es que los limites de decisión pueden oscilar continuamente cuando las entradas no son separadas y las distribuciones superpuestas.

MULTI-LAYER PERCEPTRON

Multi-layer perceptron son redes de alimentación adelantada con uno o más capas de nodos entre los nodos de entrada y salida. Si los nodos fueron elementos lineales entonces una red sigle-layer con aproximadamente pesos escojidos pudiera exactamente duplicar estas operaciones ejecutadas por cualquier red multi-layer. No más de tres capas son requeridas en un perceptron-like de las redes de alimentaciñon adelantada por que una red de tres capas puede generar arbitrariaamente regiones de decisiones complejas. El número de nodos en una segunda capa debe ser más grande que uno cuando las regiones de decisión son desconectadas o enredadas y no pueden estar formadas de un área convexa. El número de los nodos de la segunda capa requiere en el peor caso ser igual al número de las regiones desconectadas en las entradas distribuidas. El número de nodos en la primera capa debe típicamente ser sufiente para proveer tres o más aristas por cada área convexa generada por cada nodo de la segunda capa. Podría así tipicamente ser más de tres veces mucho más nodos en la segunda como el la primer capa. Kolmogoroy describe que muchas funciones continuas de N variables pueden ser calculadas usando solo simulaciones lineales y no lineales pero continuamente las funciones incrementan en una solo variable. Si efectivamente los estados que una capa tres perceptron con N(2N+1) nodos usados continuamente crecientes no lineales pueden registrar cualquier función continua de N variables. Un perceptron capa tres podría así ser usado para crear cualquier función de probabilidad continua requerida en una clasificación. Diferente de la calsificación Carpenter/Grossbery, este algoritmo puede ejecutarse relativamente bien en ruido, por que el número de clases esta arreglado, los pesos adaptados lentamente y detiene la adaptación después aprender.

CONCLUSIÓN

El más grande crecimiento potencial de las redes neuronales permanece en el proceso de alta velocidad que podría ser proveído a través de implementaciones paralelas VLSI masivamente.

Lourdes Arroyo

Volver