El método de grupo de renormalización (también llamado a menudo método de grupo de renormalización , método RG ) en la teoría cuántica de campos es un método de renormalización iterativo en el que la transición de regiones de menor energía a regiones de mayor energía es causada por un cambio en la escala de consideración de el sistema.
En física teórica , el método de grupo de renormalización (también método de grupo de renormalización , RG ) se refiere a un aparato matemático que permite el estudio sistemático de los cambios en un sistema físico cuando el sistema se considera en diferentes escalas espaciales. En física de partículas elementales, refleja la dependencia de las leyes de interacción en la escala de energía en la que los procesos físicos comienzan a cambiar.
El cambio de escala se llama "escalado", o escalado . El grupo de renormalización está estrechamente relacionado con la " invariancia de escala " y la "invariancia conforme" de la simetría , en las que el sistema se ve igual en todos los niveles (la llamada auto -similitud ) [1] . (Sin embargo, tenga en cuenta que las transformaciones de escala se incluyen en el grupo de transformaciones conformes en general: estas últimas incluyen generadores adicionales relacionados con la simetría de transformaciones conformes especiales).
Cuando la escala cambia, la fuerza de interacción también cambia, como si cambiara el aumento de un microscopio condicional, bajo el cual se ve el sistema. En las llamadas teorías renormalizables, un sistema a una escala normalmente parecerá estar compuesto de copias autosimilares cuando se ve a una escala más pequeña, con diferentes parámetros que describen los componentes del sistema. Los componentes, o variables básicas, pueden relacionarse con átomos , partículas elementales , espines atómicos, etc. Los parámetros de la teoría describen la interacción de los componentes. Estos pueden ser parámetros de conexión variables, de los que depende la influencia de varias fuerzas o masas. Los propios componentes del sistema pueden resultar compuestos de componentes similares, pero más pequeños.
Por ejemplo, en la electrodinámica cuántica (QED), el electrón parece estar compuesto de electrones, positrones y fotones , cuando se ve a mayor resolución, en distancias muy cortas. Un electrón a distancias tan pequeñas tiene una carga eléctrica ligeramente diferente a la de un "electrón vestido" a grandes distancias, y este cambio en la carga eléctrica está determinado por la ecuación del grupo de renormalización.
Vale la pena señalar que se han formado dos enfoques diferentes para el método de grupo de renormalización: el enfoque de Wilson y el enfoque de Bogolyubov . En el primer caso, el grupo de renormalización no es un grupo en sentido matemático estricto, ya que no existe elemento inverso con respecto a la operación de renormalización del grupo. En términos generales, podemos considerar que el sistema está compuesto por los mismos sistemas más pequeños, pero esto no significa que el sistema "grande" inicial se obtendrá mezclando los "pequeños". Esto es consecuencia del hecho de que al considerar sistemas de muchos cuerpos, nos interesan los valores promediados, y al promediar se pierde información relacionada con la interacción de los subsistemas. En el segundo caso, el grupo de renormalización ya corresponde completamente a un grupo en sentido estricto. Estos enfoques difieren en la secuencia de acciones: en el enfoque de Wilson, volvemos a normalizar las cantidades involucradas en la acción y luego las promediamos inmediatamente, mientras que en el enfoque de Bogolyubov, primero buscamos las funciones de Green y luego las volvemos a normalizar.
La idea del grupo de renormalización se desarrolló originalmente en la física de partículas , pero ahora se ha generalizado en la física del estado sólido , la dinámica de fluidos , la cosmología e incluso la econometría . El primer trabajo sobre este tema fue escrito por Stückelberg y Peterman en 1953. Se dieron cuenta de que la renormalización forma un grupo de transformaciones. Introdujeron la función h ( e ) en la electrodinámica cuántica, ahora llamada función beta (ver más abajo).
Murray Gell-Man y Francis Low en 1954 se interesaron por la idea de las transformaciones de escala en electrodinámica cuántica, que son físicamente las más significativas, y se centraron en el comportamiento asintótico del propagador de fotones a altas energías. Determinaron las variaciones de la interacción electromagnética en la electrodinámica cuántica evaluando la facilidad de escalar la estructura de esta teoría. Por lo tanto, encontraron que el parámetro de acoplamiento g (μ) en la escala de energía μ se describe mediante la ecuación de grupo
para alguna función de escala G y una constante d en términos de un parámetro de acoplamiento g ( M ) dependiendo de la escala de referencia M.
Gell-Man y Low demostraron en estos resultados que la escala efectiva μ se puede elegir arbitrariamente y se puede variar para definir la teoría en cualquier otra escala:
La esencia del RG es la propiedad de grupo: dependiendo de la escala μ, la teoría parece ser autosimilar, y la teoría para cualquier escala se puede obtener de manera similar a partir de la teoría para cualquier otra usando una transformación de grupo.
La función beta fue introducida por K. Callan y K. Symansik a principios de la década de 1970. Dado que la función beta es una función simple de g , integrar la función beta perturbada sobre g nos permite describir en detalle la trayectoria de renormalización del parámetro de acoplamiento, es decir, su cambio con la energía equivale a considerar la función G efectiva en esta perturbación aproximación. Las predicciones de la teoría del grupo de renormalización (Stueckelberg, Peterman y Gell-Mann, Low) se confirmaron 40 años después, en experimentos en LEP : la constante de estructura fina de QED era de aproximadamente 1/127 a energías de alrededor de 200 GeV, en contraste con la valor de la física de baja energía, igual a 1/137. (Las primeras aplicaciones a la electrodinámica cuántica se discutieron en el libro seminal de 1959 de Nikolai Bogolyubov y Dmitri Shirkov ).
El grupo de renormalización se obtiene renormalizando las variables del campo cuántico, lo que, por regla general, elimina el problema de las divergencias en la teoría cuántica de campos (aunque el RG existe independientemente de las divergencias). Este problema de evitar sistemáticamente infinitos en la teoría cuántica de campos para obtener cantidades físicas finitas fue resuelto para QED por Feynman , Schwinger y Tomonaga , quienes recibieron el Premio Nobel de 1965 por sus contribuciones a la teoría cuántica de campos. Desarrollaron una teoría de renormalización de masa y carga, en la que el infinito en la representación del momento se transfiere a un gran regularizador Λ (que en última instancia se puede considerar infinito: el infinito refleja la acumulación de contribuciones de un número infinito de grados de libertad en un infinitamente grande). escala de energía). La dependencia de las magnitudes físicas, como la carga eléctrica o la masa de un electrón, se oculta en la escala Λ, que se sustituye por una escala de grandes distancias, en la que las magnitudes físicas son medibles y, en consecuencia, todas observables. las cantidades son finitas incluso para Λ infinito. Gell-Man y Low demostraron que el pequeño cambio en g proporcionado por la ecuación RG anterior está dado por la función ψ( g ); la autosimilitud se expresa en el hecho de que ψ( g ) depende explícitamente solo de los parámetros de la teoría, y no de la escala μ. Por lo tanto, la ecuación RG anterior se puede resolver para g (μ).
Una comprensión más profunda del significado físico y la generalización del método de renormalización, que va más allá de la expansión del grupo de teorías renormalizables ordinarias, provino de la física de la materia condensada. Leo Kadanov en un artículo de 1966 propuso el grupo de renormalización "block-spin". La idea de bloqueo es una forma de definir los componentes de una teoría a grandes distancias como una colección de componentes a pequeñas distancias.
Kenneth Wilson utilizó este enfoque para resolver el antiguo problema de Kondo y describir las transiciones del segundo tipo. Fue galardonado con el Premio Nobel de 1982 por "la teoría de los fenómenos críticos en relación con las transiciones de fase".
Mientras tanto, RG en física de partículas elementales fue reformulado por K. Callan y K. Symansik en 1970. La función beta mencionada anteriormente, que describe las constantes de acoplamiento en ejecución con un cambio en el parámetro de escala, también resultó ser igual al valor de la "anomalía de traza canónica", que es una ruptura de escala mecánica cuántica en la teoría de campo. Las aplicaciones de RG a la física de partículas llevaron en la década de 1970 a la creación del Modelo Estándar.
En 1973, se descubrió que la teoría de la interacción de los quarks de color , llamada cromodinámica cuántica , tenía una función beta negativa . Esto significa que el valor inicial del parámetro de acoplamiento de alta energía dará lugar a la aparición de un punto singular μ, en el que el parámetro de acoplamiento aumenta bruscamente (diverge). Este valor particular es la escala de la interacción fuerte, μ = Λ QCD, y ocurre a una energía de alrededor de 200 MeV. Por el contrario, el enlace se debilita a energías muy altas (libertad asintótica) y los quarks se vuelven observables como partículas puntuales. Por lo tanto, QCD se obtuvo como una teoría cuántica de campos que describe la fuerte interacción de las partículas.
RG en el espacio de momento también se ha convertido en una herramienta muy desarrollada en la física del estado sólido, pero su éxito se ha visto obstaculizado por el uso generalizado de la teoría de perturbaciones, que ha impedido el éxito en la teoría de sistemas fuertemente correlacionados. Para estudiar sistemas fuertemente correlacionados, el principio variacional demostró ser la mejor alternativa. En la década de 1980, se desarrollaron varias técnicas de RG para aplicaciones en el espacio real, siendo el método del Grupo de Renormalización de la Matriz de Densidad (DMRG) desarrollado por C. R. White y R. M. Noack en 1992 el más exitoso.
La simetría conforme está asociada con la desaparición de la función beta. Esto puede suceder si la constante de acoplamiento es atraída a un punto fijo donde β( g ) = 0. En QCD, el punto fijo aparece a distancias pequeñas, donde g → 0, y se llama punto fijo ultravioleta (trivial). Para los quarks pesados, como el top quark , se ha calculado que el enlace con el bosón de Higgs que da masa tiende a un punto fijo infrarrojo distinto de cero.
Consideremos la teoría en el espacio d - dimensional euclidiano . Acordemos usar las mismas designaciones para las funciones y sus transformadas de Fourier , cambiando solo el argumento de la función: x para la representación de coordenadas, p para la representación de impulsos. Al tomar integrales, se utiliza la representación de coordenadas. El lagrangiano en esta teoría se escribe como
La función de partición en este caso se representa como una integral funcional
Se sabe que en una teoría cuántica renormalizable , los grados de libertad con energía afectan los procesos con energía ~ M solo indirectamente: a través de la renormalización de las constantes de la teoría. Por lo tanto, es recomendable "cortar" el impulso por algún valor :
.Entonces la función de partición regularizada se puede escribir como
Dividimos las variables de integración en dos grupos ( ):
Y sustituya en la expresión por la función de partición regularizada:
Abrimos los paréntesis y reagrupamos los términos, teniendo en cuenta que las contribuciones de desaparecen por las propiedades de las transformadas de Fourier (antes de tomar la integral de acción, vale la pena pasar al espacio de momento) y nuestra definición de las funciones y en el forma de impulso.
Aquí el Lagrangiano tiene la misma forma que el Lagrangiano inicial. Vamos a integrar sobre el campo :
donde se diferencia de por las correcciones proporcionales a las potencias y sus derivadas. Las correcciones se pueden presentar en forma de diagrama. Estudiemos la acción efectiva resultante por el método del grupo de renormalización. Para ello, cambiamos la escala de distancias e impulsos según la regla .
Hagamos sustituciones, en las que la acción tomará su forma original:
Como consecuencia
Como puede ver, la dependencia de la dimensión se ha trasladado a los parámetros del modelo. Analicémoslos. En una pequeña vecindad del punto fijo, los incrementos de parámetros pueden despreciarse . En física estadística, esto corresponde a considerar la dinámica de un sistema cerca de un punto crítico.
Como , entonces crecen los parámetros que se multiplican por potencias negativas , y viceversa.
Es obvio que los dos últimos parámetros no son esenciales y la teoría en es renormalizable. Esta imagen es válida, por supuesto, mientras el operador de masas no se vuelva dominante.
En física del estado sólido, el grupo de renormalización se utiliza para construir modelos matemáticos de transiciones de fase. Expandamos el incremento de energía en una serie de Taylor dependiendo de la magnetización local . En la región crítica, el coeficiente b juega un papel importante porque a tiende a cero. La magnetización local se expande en una serie de Fourier como la suma de un número infinito de ondas sinusoidales con diferentes vectores de onda y frecuencias. Los cuantos de ondas de magnetización se llaman fluctuones . Al igual que los fotones de las ondas de luz , las fluctuaciones tienen energía y cantidad de movimiento . Las fluctuaciones en un ferromagneto interactúan dispersándose unas sobre otras. Es conveniente calcular los procesos de dispersión de fluctuaciones usando diagramas de Feynman . En estos diagramas, las líneas corresponden a partículas en movimiento (fluctuaciones) y los puntos corresponden a sus colisiones. La fuerza real de interacción de las fluctuaciones se denomina constante de acoplamiento efectiva g. Cortamos el diagrama de Feynman de dos a dos procesos de dispersión en el lugar donde pasan dos partículas intermedias. Consideremos a la derecha todos los bloques posibles que representan procesos de dispersión de dos a dos. Después de la suma, el lado derecho es la suma con un número infinito de términos que representan la constante g. Consideremos a la izquierda todos los bloques posibles que representan procesos de dispersión de dos a dos. Después de la suma, el lado izquierdo es la suma con un número infinito de términos que representan la constante g. Como resultado, en lugar de un conjunto infinito de términos, cada uno de los cuales depende de la constante de acoplamiento b, llegamos a un término que depende de la constante g. Este procedimiento de reemplazar una constante de acoplamiento con otra se llama renormalización. El método del grupo de renormalización permite explicar la independencia del tipo de asintótica crítica de la naturaleza material y física de la transición de fase.
El método de grupo de renormalización es una herramienta generalmente reconocida para estudiar transiciones de fase de segundo orden y fenómenos críticos. Los problemas de física estadística incluyen problemas con un número infinito de grados de libertad. Por ejemplo: problemas de la teoría del comportamiento crítico o dinámica estocástica con campos aleatorios clásicos dependientes del tiempo. En consecuencia, el sistema está dado por una familia infinita de funciones de Green. Como regla general, no existe una solución exacta para tales problemas. Por tanto, tenemos que hablar de asintóticas en dominios. La técnica RG solo mostrará la existencia de la escala correspondiente. Y, si existe, obtendremos fórmulas explícitas para calcular los exponentes críticos a través de la expansión ε ( d = 4 − ε). Los exponentes críticos describen anomalías en varias características termodinámicas del sistema en la región de fluctuación, es decir, en la vecindad del punto de transición de fase.
Es decir, la técnica RG es un método para calcular las asintóticas de la función de Green en la región de momentos grandes (UV) y pequeños (IR). Consideramos asintóticas no triviales: hay términos de la serie de perturbaciones con una singularidad en los momentos. Por lo tanto, en tales casos, no es suficiente para nosotros sumar una parte de la serie. Es necesario sumar toda la serie. Tales operaciones se realizan utilizando la técnica RG. Como resultado, obtenemos una ecuación diferencial parcial lineal para la función de Green. Pero, como se dijo anteriormente, tenemos dos áreas. Y la solución resultante es correcta solo en uno de ellos. ¿Cómo podemos encontrar esta área de aplicabilidad? Considere la función β, el coeficiente de la derivada en el operador RG. por lo general parece
es un punto fijo.Siempre existe una solución trivial g * = 0. Así, dependiendo del comportamiento de la función β( g ) en la vecindad de g * = 0, se distinguen los puntos fijos atractivos UV y atractivos IR.
También vale la pena mencionar la hipótesis de universalidad y similitud.
Considere el esquema de análisis RG para cualquier modelo.
Vale la pena repetir que la tarea del análisis RG es justificar el escalado crítico y calcular índices críticos. Estamos interesados en resultados interesantes que no dependan de la arbitrariedad de la renormalización finita. A continuación, solo consideraremos el esquema de cálculo.