Mapas autoorganizados
Área Académica: ICBI, Sistemas Computacionales 
Tema: Mapas auto organizados 
Profesor: M.C.C Víctor Tomás Tomás Mariano 
Alumnos: 
Leticia Hernandez Hernandez. 
Agustin Escamilla Hernández 
Periodo: Julio-Diciembre 2011
Resumen. 
Se describe las características de los mapas auto organizados, su regla de aprendizaje, su algoritmo de entrenamiento, con la finalidad de resolver problemas de clasificación. 
Abstract 
It describes the characteristics of self-organizing maps, the learning rule, the training algorithm, in order to solve classification problems. 
Keywords: Neural Networks, 
Learning Vector Quantization
Se cree que algunos sistemas biológicos realizan sus operaciones siguiendo un método de trabajo que algunos investigadores han llamado, on-center/off-surround; este término describe un patrón de conexión entre neuronas, cada neurona se refuerza a ella misma (center) mientras inhibe a todas las neuronas a su alrededor (surround). 
En las redes competitivas biológicas, lo que sucede realmente es que cuando una neurona se refuerza a ella misma, refuerza también las neuronas que están cerca; la transición entre reforzar las neuronas “vecinas” o inhibirlas, se realiza suavemente a medida que la distancia entre las neuronas aumenta. De esta forma el proceso on-center/off-surround; para redes biológicas sigue el comportamiento señalado en la figura 2.5.14, función que habitualmente es referida como sombrero mexicano debido a su forma.
Tratando de emular la actividad biológica, sin tener que implementar conexiones on-center/off-surround; de realimentación no lineal, Kohonen diseñó la red conocida como mapa de auto organización (SOM).
Mapa de auto organización (SOM) 
•Esta red determina primero la neurona ganadora i* usando el mismo procedimiento que las redes competitivas, luego los vectores de pesos de todas las neuronas que se encuentren en una región cercana “vecindario”, serán actualizados mediante la regla de Kohonen. 
•Donde el vecindario Ni* contiene el índice para todas las neuronas que se encuentren a un radio “d” de la neurona ganadora i* 
•Cuando un vector p es presentado, los pesos de la neurona ganadora y de sus vecinas tenderán hacia p, el resultado es que después de muchas presentaciones las neuronas vecinas habrán aprendido vectores similares que cada una de las otras.
•El concepto de vecindario es ilustrado en la figura 2.5.15; para la primera figura se ha tomado un vecindario de radio d =1 alrededor de la neurona 13; para la segunda figura se ha tomado un vecindario de radio d =2. 
•Estos vecindarios pueden definirse como sigue:
•El vecindario puede determinarse en diferentes formas; Kohonen, por ejemplo ha sugerido vecindarios rectangulares o hexagonales para lograr alta eficiencia; es importante destacar que el rendimiento de la red no es realmente sensitivo a la forma exacta del vecindario. 
•La figura 2.5.16 ilustra un mapa de auto organización de dos dimensiones: 
•Ejecutar nnd14fm1, nnd14fm2, en Matlab.
Learning Vector Quantization (LVQ). 
•Esta red es un híbrido que emplea tanto aprendizaje no supervisado, como aprendizaje supervisado para clasificación de patrones.
Mapas autoorganizados
•La entrada neta a la primera capa de la red LVQ es entonces, 
•La entrada neta a la primera capa de la red LVQ es entonces, 
•Así, la neurona cuyo vector de pesos este cercano al vector de entrada tendrá salida 1 y las otras neuronas, tendrán salida 0; en este aspecto la red LVQ se comporta igual a las redes competitivas, la única diferencia consiste en la interpretación, mientras que en las redes competitivas la salida no cero representa una clase del vector de entrada, para el algoritmo LVQ, indica mas bien una subclase, y de esta forma muchas neuronas (subclases), conforman una clase.
Mapas autoorganizados
•Una propiedad importante de esta red, es que el proceso de combinar subclases para formar clases, permite a la red LVQ crear clases más complejas. Una capa competitiva estándar tiene la limitación de que puede crear sólo regiones de decisión convexas; la red LVQ soluciona esta limitación. 
•La red LVQ combina aprendizaje competitivo con aprendizaje supervisado, razón por lo cual necesita un set de entrenamiento que describa el comportamiento propio de la red: 
•Para ilustrar el desempeño de la red LVQ, se considerará la clasificación de un vector particular de tres elementos dentro de otro de cuatro clases, de esta forma:
Mapas autoorganizados
Mapas autoorganizados
•El resultado será que cada neurona se moverá hacia los vectores que cayeron dentro de la clase, para la cual ellos forman una subclase y lejos de los vectores que cayeron en otras clases. 
•Se ilustrará el funcionamiento de la red LVQ, buscando que clasifique correctamente los siguientes patrones, cuyas clases se han definido arbitrariamente: 
•Los vectores esperados asociados a cada una de las entradas son:
•La posición inicial de los patrones de entrada es la siguiente: 
•Si se escogen dos subclases para cada una de las dos clases existentes, tendremos entonces cuatro subclases, lo que determina que deben haber cuatro neuronas en la capa oculta. La matriz de pesos para la capa de salida es:
Mapas autoorganizados
Mapas autoorganizados
Mapas autoorganizados
Mapas autoorganizados
Mapas autoorganizados
Bibliografía 
Neural Network Design. [Martin T. Hagan, Howard B, Demuth, Mark Beale – PWS Publishing Company].

Más contenido relacionado

PDF
redes kohonen
DOC
redes neuronales Kohonen
PPT
Curso 2006 Sesion 1 Kohonen
PPT
REDES NEURONALES Mapas con Características Autoorganizativas Som
PDF
Red neuronal kohonen (Clasificación de colores)
PPT
REDES NEURONALES COMPETITIVAS HAMMING
DOC
redes neuronales Som
PPTX
redes competitivas
redes kohonen
redes neuronales Kohonen
Curso 2006 Sesion 1 Kohonen
REDES NEURONALES Mapas con Características Autoorganizativas Som
Red neuronal kohonen (Clasificación de colores)
REDES NEURONALES COMPETITIVAS HAMMING
redes neuronales Som
redes competitivas

La actualidad más candente (20)

PPT
REDES NEURONALES Aprendizaje Competitivo Cooperativo
PPTX
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
PPT
Red NEURONAL de Hamming
PPT
Redes Neuronales
DOC
Teoria Resonancia Adaptativa
PDF
Introduccion a las redes neuronales
PPTX
Redes neuronales multicapa y monocapa
PPT
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
PPT
Características de las Redes Neuronales
PDF
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
PPT
Redes Neuronales
PPTX
RED NEURONAL ARTIFICIAL . I.A
DOCX
Perceptrón simple y multicapa
PPSX
Redes neuronales Luis Lozano CI 22.840.519
PPT
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
DOC
Redes neuronales
PPT
El Perceptrón Multicapa
PPT
Sistemas Basados en Casos IUT
DOC
MODELO DE RESONANCIA ADAPTATIVA (ART)
REDES NEURONALES Aprendizaje Competitivo Cooperativo
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Red NEURONAL de Hamming
Redes Neuronales
Teoria Resonancia Adaptativa
Introduccion a las redes neuronales
Redes neuronales multicapa y monocapa
Redes Neuronales Monocapa con Conexiones en Cascada PERCEPTRON
Características de las Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Redes Neuronales
RED NEURONAL ARTIFICIAL . I.A
Perceptrón simple y multicapa
Redes neuronales Luis Lozano CI 22.840.519
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
Redes neuronales
El Perceptrón Multicapa
Sistemas Basados en Casos IUT
MODELO DE RESONANCIA ADAPTATIVA (ART)
Publicidad

Destacado (12)

PPT
REDES NEURONALES Aprendizaje Asociativo
PPTX
Mapas de kohonen
KEY
Redes Neurais Artificiais - Modelos e suas implementações
PPT
Aprendizaje Asociativo Hebbiano
PPTX
Hab(pensamiento asociativo)
PPT
Sefl Organizing Map
PPT
Counterpropagation
PPT
Diseño de Redes Neuronales Multicapa y Entrenamiento
PPTX
Kohonen self organizing maps
PPTX
Redes Adeline, Hopfield y Kohonen
PDF
Utp ia_2015-2_s89_redes autorganizadas
PDF
Utp ia_2014-2_s10_redes de funciones de base radial
REDES NEURONALES Aprendizaje Asociativo
Mapas de kohonen
Redes Neurais Artificiais - Modelos e suas implementações
Aprendizaje Asociativo Hebbiano
Hab(pensamiento asociativo)
Sefl Organizing Map
Counterpropagation
Diseño de Redes Neuronales Multicapa y Entrenamiento
Kohonen self organizing maps
Redes Adeline, Hopfield y Kohonen
Utp ia_2015-2_s89_redes autorganizadas
Utp ia_2014-2_s10_redes de funciones de base radial
Publicidad

Similar a Mapas autoorganizados (20)

PPT
Mapas de características auto-organizativas MAO´s de Kohonen
PDF
Función de transferencia compet
PPT
2º asignacion redes neuronales
DOCX
Características de las redes neuronales ethan
DOCX
Características de las redes neuronales ethan
PPTX
presentación de una REDneuronal de tipo radial.pptx
PPTX
Red neuronal en el siglo XXI para alumnos.pptx
PDF
Redes Neuronales
PDF
Tema3dm
PPT
Introduccion redes neuronales artificiales
PPTX
IA - Redes Neuronales
PPT
CUANTIZACIÓN DEL VECTOR DE APRENDIZAJE
PDF
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
PPT
48690471 redes-neuronales
PDF
Ap acompet
PPT
REDES NEURONALES Base Radial
PDF
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
PPTX
Presentación que define una neurona con ejemplos prácticos
PPT
Tedes estocasticas
PPT
Redes Neuronales Artificiales - TODO.ppt
Mapas de características auto-organizativas MAO´s de Kohonen
Función de transferencia compet
2º asignacion redes neuronales
Características de las redes neuronales ethan
Características de las redes neuronales ethan
presentación de una REDneuronal de tipo radial.pptx
Red neuronal en el siglo XXI para alumnos.pptx
Redes Neuronales
Tema3dm
Introduccion redes neuronales artificiales
IA - Redes Neuronales
CUANTIZACIÓN DEL VECTOR DE APRENDIZAJE
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
48690471 redes-neuronales
Ap acompet
REDES NEURONALES Base Radial
Problema de Aplicación sobre la fertilidad en los hombres aplicando las Funci...
Presentación que define una neurona con ejemplos prácticos
Tedes estocasticas
Redes Neuronales Artificiales - TODO.ppt

Mapas autoorganizados

  • 2. Área Académica: ICBI, Sistemas Computacionales Tema: Mapas auto organizados Profesor: M.C.C Víctor Tomás Tomás Mariano Alumnos: Leticia Hernandez Hernandez. Agustin Escamilla Hernández Periodo: Julio-Diciembre 2011
  • 3. Resumen. Se describe las características de los mapas auto organizados, su regla de aprendizaje, su algoritmo de entrenamiento, con la finalidad de resolver problemas de clasificación. Abstract It describes the characteristics of self-organizing maps, the learning rule, the training algorithm, in order to solve classification problems. Keywords: Neural Networks, Learning Vector Quantization
  • 4. Se cree que algunos sistemas biológicos realizan sus operaciones siguiendo un método de trabajo que algunos investigadores han llamado, on-center/off-surround; este término describe un patrón de conexión entre neuronas, cada neurona se refuerza a ella misma (center) mientras inhibe a todas las neuronas a su alrededor (surround). En las redes competitivas biológicas, lo que sucede realmente es que cuando una neurona se refuerza a ella misma, refuerza también las neuronas que están cerca; la transición entre reforzar las neuronas “vecinas” o inhibirlas, se realiza suavemente a medida que la distancia entre las neuronas aumenta. De esta forma el proceso on-center/off-surround; para redes biológicas sigue el comportamiento señalado en la figura 2.5.14, función que habitualmente es referida como sombrero mexicano debido a su forma.
  • 5. Tratando de emular la actividad biológica, sin tener que implementar conexiones on-center/off-surround; de realimentación no lineal, Kohonen diseñó la red conocida como mapa de auto organización (SOM).
  • 6. Mapa de auto organización (SOM) •Esta red determina primero la neurona ganadora i* usando el mismo procedimiento que las redes competitivas, luego los vectores de pesos de todas las neuronas que se encuentren en una región cercana “vecindario”, serán actualizados mediante la regla de Kohonen. •Donde el vecindario Ni* contiene el índice para todas las neuronas que se encuentren a un radio “d” de la neurona ganadora i* •Cuando un vector p es presentado, los pesos de la neurona ganadora y de sus vecinas tenderán hacia p, el resultado es que después de muchas presentaciones las neuronas vecinas habrán aprendido vectores similares que cada una de las otras.
  • 7. •El concepto de vecindario es ilustrado en la figura 2.5.15; para la primera figura se ha tomado un vecindario de radio d =1 alrededor de la neurona 13; para la segunda figura se ha tomado un vecindario de radio d =2. •Estos vecindarios pueden definirse como sigue:
  • 8. •El vecindario puede determinarse en diferentes formas; Kohonen, por ejemplo ha sugerido vecindarios rectangulares o hexagonales para lograr alta eficiencia; es importante destacar que el rendimiento de la red no es realmente sensitivo a la forma exacta del vecindario. •La figura 2.5.16 ilustra un mapa de auto organización de dos dimensiones: •Ejecutar nnd14fm1, nnd14fm2, en Matlab.
  • 9. Learning Vector Quantization (LVQ). •Esta red es un híbrido que emplea tanto aprendizaje no supervisado, como aprendizaje supervisado para clasificación de patrones.
  • 11. •La entrada neta a la primera capa de la red LVQ es entonces, •La entrada neta a la primera capa de la red LVQ es entonces, •Así, la neurona cuyo vector de pesos este cercano al vector de entrada tendrá salida 1 y las otras neuronas, tendrán salida 0; en este aspecto la red LVQ se comporta igual a las redes competitivas, la única diferencia consiste en la interpretación, mientras que en las redes competitivas la salida no cero representa una clase del vector de entrada, para el algoritmo LVQ, indica mas bien una subclase, y de esta forma muchas neuronas (subclases), conforman una clase.
  • 13. •Una propiedad importante de esta red, es que el proceso de combinar subclases para formar clases, permite a la red LVQ crear clases más complejas. Una capa competitiva estándar tiene la limitación de que puede crear sólo regiones de decisión convexas; la red LVQ soluciona esta limitación. •La red LVQ combina aprendizaje competitivo con aprendizaje supervisado, razón por lo cual necesita un set de entrenamiento que describa el comportamiento propio de la red: •Para ilustrar el desempeño de la red LVQ, se considerará la clasificación de un vector particular de tres elementos dentro de otro de cuatro clases, de esta forma:
  • 16. •El resultado será que cada neurona se moverá hacia los vectores que cayeron dentro de la clase, para la cual ellos forman una subclase y lejos de los vectores que cayeron en otras clases. •Se ilustrará el funcionamiento de la red LVQ, buscando que clasifique correctamente los siguientes patrones, cuyas clases se han definido arbitrariamente: •Los vectores esperados asociados a cada una de las entradas son:
  • 17. •La posición inicial de los patrones de entrada es la siguiente: •Si se escogen dos subclases para cada una de las dos clases existentes, tendremos entonces cuatro subclases, lo que determina que deben haber cuatro neuronas en la capa oculta. La matriz de pesos para la capa de salida es:
  • 23. Bibliografía Neural Network Design. [Martin T. Hagan, Howard B, Demuth, Mark Beale – PWS Publishing Company].