Expandir el gas neuronal es un algoritmo que permite la agrupación adaptativa de datos de entrada, es decir, no solo para dividir el espacio en grupos, sino también para determinar el número requerido de ellos en función de las características de los propios datos. Un gas neuronal en expansión no requiere información a priori sobre los datos, como una estimación del número de cúmulos o la forma de los cúmulos". [1] Esta es una nueva clase de mecanismos informáticos. El número y la ubicación de las neuronas artificiales en el espacio de características no está predeterminado, sino que es el resultado de un cálculo en el proceso de entrenamiento de modelos basado en los datos ingresados en la entrada [2]. En este modelo, la vecindad de los nodos no es fija, sino que cambia dinámicamente a medida que mejora la agrupación. Las variables no son solo relaciones de vecindad, sino también el número de neuronas del grupo.
Existen técnicas que son capaces de seleccionar los objetos más similares en el espacio y formar grupos a partir de ellos. Durante el análisis, el conjunto de objetos se organiza en subconjuntos en función de la similitud que se mide. Por lo general, los métodos se basan en un esquema estándar: optimizar la relación entre la disposición espacial de los vectores y un conjunto de objetos, de modo que cada vector determine la estructura de los clústeres . Sin embargo, la mayoría de las técnicas tienen dos inconvenientes importantes: el análisis depende de un número determinado de conglomerados y la división en conglomerados está localizada en el tiempo. Todos los métodos de agrupamiento modernos eran estáticos y no podían adaptar los resultados; si se añadían nuevos datos a los datos, era necesario volver a ejecutar el algoritmo.
La implementación del algoritmo comienza con dos neuronas. Luego hay un cambio secuencial (generalmente en la dirección del aumento) de su número, al mismo tiempo, se crean las conexiones entre las neuronas que mejor se corresponden con la distribución de los vectores de entrada. A cada neurona se le asigna una variable interna que acumula un "error local". Las conexiones entre nodos se describen mediante una variable llamada "edad" [3] .
Si en esta etapa los nodos se desplazan hacia el vector de entrada, entonces el ganador tiende a "promediar" su posición en relación con las señales de entrada ubicadas en su vecindad. En este caso, la mejor neurona “tira” ligeramente de las neuronas vecinas en la dirección de la señal.
El investigador puede establecer la forma de la estructura del cúmulo por sí mismo, ya sea que el agrupamiento se realice para una hiperesfera , un hipertubo o un hiperplano . Si no tiene este conocimiento, entonces gracias al valor de su propia matriz de covarianza , puede determinar la forma necesaria. Si la estructura tiene al menos un valor propio menor que el umbral elegido por el usuario, entonces el modelo será hiperlineal, de lo contrario, la estructura debe considerarse como una variedad no lineal. Más pruebas mostrarán si el modelo tiene forma de esfera o de tubo. La prueba de esfericidad depende del cumplimiento de la desigualdad np/na>ψ, donde np es el número de vectores dentro del conglomerado, que se encuentra usando el teorema de Jordan Brauer [4] , y ap es el área superficial del conglomerado. clúster, y ψ es un umbral especificado por el usuario. Si esta desigualdad toma la forma np/na<ψ, entonces la forma del cúmulo será un "hipertubo". [3]
Para un cúmulo en forma de hipertubo, se calcula una medida de distancia radial:
donde Aj es una matriz definida positiva calculada para tener en cuenta la excentricidad y la orientación del hipertubo [5] . El valor de Aj para esta ecuación se encuentra usando el hiperlipsoide de Lowner usando el algoritmo de Khachiyan [6] .
Para determinar distancias en un hiperplano, utilice la siguiente fórmula:
donde Aj es una matriz de peso simétrica definida arbitrariamente positiva. Y bj, k se estima encontrando los vectores propios de los nodos neuronales del modelo.
Para determinar la distancia en la hiperesfera, debes usar la fórmula:
donde wi es el valor medio de los vectores contenidos en el plano.
En el espacio 3D, los datos son muy fáciles de visualizar. [3] Puedes verlo en la imagen.
Sin embargo, si nuestro espacio es más grande que tridimensional, entonces la visualización de datos es difícil. Para solucionar este problema se utiliza una técnica basada en el IVA [7] . La esencia de la construcción es que se encuentra el árbol de expansión mínimo del modelo. Una vez que se completa el proceso de clasificación, la estructura del grupo se puede analizar mediante cuadrados cerca de la diagonal. En primer lugar, se calculan neuronas diferentes por parejas normalizadas en cada gráfico aislado. Luego, las diferentes neuronas se reorganizan para crear la distribución intracluster más densa. Luego, cada grupo se pinta en su propio color y se coloca a lo largo de la diagonal principal. Las relaciones intracluster también se incluyen en el diagrama, la distancia máxima entre dos clusters se indica en blanco y en negro la distancia más pequeña. El volumen del racimo se puede agregar como otra dimensión, esta es la altura de los cuadrados.
Este ejemplo se proporciona para demostrar cómo se adapta el sistema cuando se ingresan nuevos datos. La base de datos consta de 1050 objetos de punto. Inicialmente se realizaron 5000 iteraciones y el 75% de la información ingresó al algoritmo. Después de ingresar una pequeña porción de 756 puntos de datos en el sistema, los vectores neuronales comenzaron a adaptarse para formar la distribución que se muestra en la siguiente figura.
Posteriormente, se lanzaron otros 150 nuevos vectores. Esto condujo a la formación de una nueva clase esférica, indicada en la siguiente figura:
A pesar de la proximidad espacial de los clústeres verde y magenta, el algoritmo notó un aumento en los clústeres y se adaptó a estos cambios. En este caso, los 120 objetos restantes se barajaron repetidamente entre los grupos verde y magenta. Posteriormente, el algoritmo distribuyó los datos entre los dos grupos y mantuvo el número original de grupos.
Tipos de redes neuronales artificiales | |
---|---|
|
Aprendizaje automático y minería de datos | |
---|---|
Tareas | |
Aprendiendo con un maestro | |
análisis de conglomerados | |
Reducción de dimensionalidad | |
Pronóstico estructural | |
Detección de anomalías | |
Graficar modelos probabilísticos | |
Redes neuronales | |
Aprendizaje reforzado |
|
Teoría | |
revistas y congresos |
|