Máquina de Boltzmann

La máquina de Boltzmann es un  tipo de red neuronal recurrente estocástica inventada por Jeffrey Hinton y Terry Sejnowski en 1985 [1] . La máquina de Boltzmann puede verse como una variante generativa estocástica de la red de Hopfield .

Los estadísticos llaman a estas redes campos aleatorios de Markov . La red lleva el nombre de máquina de Boltzmann en honor al físico austriaco Ludwig Boltzmann , uno de los fundadores de la física estadística .

Esta red utiliza un algoritmo de simulación de recocido para el aprendizaje y resultó ser la primera red neuronal capaz de aprender representaciones internas y resolver problemas combinatorios complejos . A pesar de esto, debido a una serie de problemas, las máquinas de Boltzmann con conectividad ilimitada no se pueden utilizar para resolver problemas prácticos. Si la conectividad es limitada, entonces la capacitación puede ser lo suficientemente efectiva como para usarla en la práctica. En particular, la llamada red profunda de confianza se construye a partir de una cascada de máquinas Boltzmann limitadas .

Modelo

Al igual que la red de Hopfield, la máquina de Boltzmann es una red de neuronas con un concepto de "energía" definido para ella. El cálculo de la energía global se realiza de forma idéntica a la red de Hopfield: [2]

Dónde:

Los enlaces tienen las siguientes restricciones:

Equilibrio térmico

Uno de los principales inconvenientes de la red de Hopfield es la tendencia a "estabilizar" el estado de la red en un mínimo local en lugar de global. En la práctica, es deseable que la red pase a mínimos profundos de energía con más frecuencia que a los superficiales, y que la probabilidad relativa de que la red pase a uno de dos mínimos con diferentes energías dependa únicamente de la proporción de sus profundidades. Esto permitiría controlar las probabilidades de obtener vectores de estado de salida específicos cambiando el perfil de la superficie de energía del sistema modificando los pesos de enlace. Sobre la base de estas consideraciones, se construyó la máquina de Boltzmann.

La idea de utilizar el "ruido térmico" para salir de los mínimos locales y aumentar la probabilidad de alcanzar mínimos más profundos pertenece a S. Kirpatrick. Basado en esta idea, se ha desarrollado un algoritmo de simulación de recocido .

Introduzcamos un parámetro  , un análogo del nivel de ruido térmico. Luego, la probabilidad de la actividad de una determinada neurona se determina sobre la base de la función de probabilidad de Boltzmann:

dónde  está el nivel de ruido térmico en la red;  es la suma de los pesos de las conexiones de la neurona th con todas las neuronas actualmente activas.

Máquina Boltzmann limitada

Aunque las capacidades de entrenamiento de una máquina Boltzmann son limitadas en la práctica, estos problemas pueden resolverse aplicando la arquitectura de máquina Boltzmann restringida (RBM). En esta arquitectura sólo existen conexiones entre neuronas ocultas y visibles, pero no existen conexiones entre neuronas de la misma clase. Tal arquitectura fue utilizada originalmente por Paul Smolensky en 1986 bajo el nombre de Harmonium [3] , pero solo ganó popularidad después de la invención de Hinton de algoritmos de aprendizaje rápido a mediados de la década de 2000.

Las máquinas de Boltzmann restringidas se utilizan en redes de aprendizaje profundo . En particular, las redes de creencias profundas se pueden obtener "superponiendo" RBM y luego volviendo a entrenar usando el algoritmo de retropropagación.

Notas

  1. Ackley, David H.; Hinton, Geoffrey E.; Sejnowski, Terrence J. Un algoritmo de aprendizaje para máquinas de Boltzmann. - Ciencias Cognitivas 9 (1), 1985. - S. 147-169.
  2. Loskutov A. Yu. , Mikhailov A. S. Introducción a la sinergia. - M., Nauka, 1990. - ISBN 5-02-014475-4 . - Con. 233-237
  3. Smolensky, Paul. Capítulo 6: Procesamiento de información en sistemas dinámicos: Fundamentos de la teoría de la armonía // Procesamiento distribuido en paralelo: Exploraciones en la microestructura de la cognición, Volumen 1: Fundamentos  (inglés) / Rumelhart, David E.; McLelland, James L. - MIT Press , 1986. - P. 194-281. — ISBN 0-262-68053-X . Copia archivada (enlace no disponible) . Consultado el 12 de junio de 2014. Archivado desde el original el 13 de junio de 2013. 

Enlaces