Mapa autoorganizado de Kohonen
El mapa autoorganizado de Kohonen ( English Self-organizing map - SOM) es una red neuronal no supervisada que realiza la tarea de visualización y agrupamiento . La idea de una red fue propuesta por el científico finlandés T. Kohonen . Es un método para proyectar un espacio multidimensional en un espacio con una dimensión más baja (la mayoría de las veces, bidimensional), también se usa para resolver problemas de modelado, pronóstico, identificación de conjuntos de características independientes, búsqueda de patrones en grandes conjuntos de datos. , desarrollo de juegos de computadora, cuantificación de colores a su número limitado de índices en la paleta de colores: al imprimir en una impresora y antes en una PC o en decodificadores con una pantalla con un número reducido de colores, para archivadores [uso general] o códecs de vídeo, etc. Es una de las versiones de las redes neuronales de Kohonen .
Historia
El método fue propuesto por el científico finlandés Teuvo Kohonen en 1984. Hay muchas modificaciones del modelo original.
Estructura de la red
Un mapa autoorganizado se compone de componentes llamados nodos o neuronas. Su número lo establece el analista . Cada uno de los nodos está descrito por dos vectores. El primero es el llamado. un vector de peso m que tiene la misma dimensión que la entrada. El segundo es el vector r , que son las coordenadas del nodo en el mapa. El mapa de Kohonen se muestra visualmente mediante celdas rectangulares o hexagonales; este último se usa con más frecuencia, ya que en este caso las distancias entre los centros de las celdas adyacentes son las mismas, lo que aumenta la precisión de la visualización del mapa.
Inicialmente se conoce la dimensión de los datos de entrada, de alguna manera se construye la versión inicial del mapa. Durante el proceso de aprendizaje, los vectores de peso de los nodos se aproximan a los datos de entrada. Para cada observación (muestra), se selecciona el nodo más similar en términos de vector de peso y el valor de su vector de peso se aproxima a la observación. Además, los vectores de peso de varios nodos ubicados cerca se acercan a la observación, por lo que si dos observaciones eran similares en el conjunto de datos de entrada, los nodos cercanos les corresponderán en el mapa. El proceso de aprendizaje cíclico, iterando sobre los datos de entrada, finaliza cuando el mapa alcanza un error aceptable (predeterminado por el analista), o después de un número específico de iteraciones. Por lo tanto, como resultado del entrenamiento, el mapa de Kohonen clasifica los datos de entrada en grupos y muestra visualmente los datos de entrada multidimensionales en un plano bidimensional, distribuyendo vectores de características cercanas en las celdas vecinas y coloreándolos según los parámetros analizados de las neuronas.
Como resultado del algoritmo se obtienen los siguientes mapas:
- mapa de entrada de neuronas : visualiza la estructura interna de los datos de entrada ajustando los pesos de las neuronas del mapa. Por lo general, se utilizan varios mapas de entrada, cada uno de los cuales muestra uno de ellos y se colorea según el peso de la neurona. En uno de los mapas, un determinado color indica el área, que incluye aproximadamente las mismas entradas para los ejemplos analizados.
- mapa de salida de neuronas : visualiza un modelo de la posición relativa de los ejemplos de entrada. Las áreas delineadas en el mapa son grupos que consisten en neuronas con valores de salida similares.
- Los mapas especiales son un mapa de conglomerados obtenidos como resultado de aplicar el algoritmo de mapas autoorganizados de Kohonen, así como otros mapas que los caracterizan. [una]
Operación de red
- Inicialización del mapa, es decir, la asignación inicial de vectores de peso para los nodos.
- Ciclo:
- Seleccionar la siguiente observación (un vector de un conjunto de entradas).
- Encontrar la mejor unidad de coincidencia para él (BMU o Ganador): un nodo en el mapa, cuyo vector de peso es el menos diferente de la observación (en la métrica establecida por el analista, con mayor frecuencia, euclidiana).
- Determinación del número de vecinos de la BMU y aprendizaje: cambio de los vectores de peso de la BMU y sus vecinos para aproximarlos a la observación.
- Definición de error de mapa.
Algoritmo
Hay tres formas más comunes de establecer los pesos iniciales de los nodos:
- Configuración de todas las coordenadas por números aleatorios.
- Asignar el valor de una observación aleatoria de la entrada al vector de peso.
- Selección de vectores de peso del espacio lineal abarcado por los componentes principales del conjunto de datos de entrada.
- Ciclo
Sea el número de iteración (la inicialización corresponde al número 0).
- Elija una observación arbitraria de un conjunto de datos de entrada.
- Encuentre las distancias de éste a los vectores de peso de todos los nodos del mapa y determine el nodo más cercano en términos de peso . Esto es BMU o Ganador. Condición para :
,
para any , donde es el vector de peso del nodo . Si hay varios nodos que cumplen la condición, la BMU se selecciona aleatoriamente de entre ellos.
- Utilice la función (función de vecindad) para determinar los vecinos y cambiar sus vectores de peso.
- Ejercicio
La función determina la "medida de vecindario" de los nodos y el cambio en los vectores de peso. Debería refinar gradualmente sus valores, primero en un mayor número de nodos y más fuertes, luego en uno más pequeño y más débil. A menudo se utiliza una función gaussiana como función de vecindad:
donde es un factor de entrenamiento que disminuye monótonamente con cada iteración posterior (es decir, determina la aproximación del valor de los vectores de peso de la BMU y sus vecinos a la observación; cuanto mayor es el paso, menor es el refinamiento);
, - coordenadas de nodos y en el mapa;
— el factor que reduce el número de vecinos con iteraciones disminuye monótonamente.
Los parámetros y su carácter de disminución son establecidos por el analista.
Una forma más fácil de definir una función de vecindad:
,
si está en la vecindad de un radio predeterminado por el analista, y 0 en caso contrario.
La función es igual para la BMU y disminuye con la distancia desde la BMU.
- Cambio de vectores de peso
Cambie el vector de pesos según la fórmula:
Que. los vectores de peso de todos los nodos que son vecinos de la BMU se aproximan a la observación en consideración.
- Cálculo de errores de mapa
Por ejemplo, como la media aritmética de las distancias entre las observaciones y los vectores de peso de sus correspondientes UMB:
,
donde N es el número de elementos del conjunto de datos de entrada.
Características del modelo
Resistencia a datos ruidosos, aprendizaje rápido y sin supervisión, capacidad para simplificar datos de entrada multivariados con visualización. [2]
Los mapas de Kohonen autoorganizados se pueden utilizar para el análisis de conglomerados solo si se conoce de antemano el número de conglomerados [2] .
Una desventaja importante es que el resultado final del trabajo de las redes neuronales depende de la configuración inicial de la red. Por otro lado, las redes neuronales teóricamente pueden aproximarse a cualquier función continua, lo que permite al investigador no hacer hipótesis sobre el modelo de antemano [2] .
Véase también
Notas
- ↑ Chubukova, 2000 , pág. 140.
- ↑ 1 2 3 Manzhula, 2011 .
Literatura
- T. Kohonen , Self-Organizing Maps (Tercera edición ampliada), Nueva York, 2001, 501 páginas. ISBN 3-540-67921-9
- Debock G., Kohonen T. Análisis de datos financieros con mapas autoorganizados, Alpina Publisher, 2001, 317 págs. ISBN 5-89684-013-6
- Zinoviev A. Yu. Visualización de datos multidimensionales . - Krasnoyarsk: Ed. Universidad Técnica Estatal de Krasnoyarsk, 2000. - 180 p.
- Chubukova I.A. minería de datos - 2000. - 326 págs.
- Manzhula V.G., Fedyashov D.S. Redes neuronales de Kohonen y redes neuronales difusas en minería de datos . — 2011.
- Lakhmi C. Jain; NM Martin Fusión de Redes Neuronales, Sistemas Fuzzy y Algoritmos Genéticos: Aplicaciones Industriales. — CRC Press, CRC Press LLC, 1998
Enlaces
Tipos de redes neuronales artificiales |
---|
|