La simetría se encuentra no solo en geometría , sino también en otras áreas de las matemáticas. La simetría es un tipo de invariancia , la propiedad de no cambiar bajo algunas transformaciones .
Sea dado un objeto estructurado X de algún tipo, la simetría es un mapeo del objeto en sí mismo, preservando la estructura del objeto. La simetría viene en una variedad de formas. Por ejemplo, si X es un conjunto con estructura adicional, la simetría es la aplicación biyectiva del conjunto sobre sí mismo, dando lugar a grupos de permutación . Si el objeto X es un conjunto de puntos en un plano con su estructura métrica , o cualquier otro espacio métrico, la simetría es una biyección del conjunto sobre sí mismo que conserva la distancia entre cualquier par de puntos ( isometría ).
En general, cualquier estructura matemática tendrá su propio tipo de simetría, y muchas de ellas se dan en este artículo.
Las simetrías de la geometría elemental (como la reflexión y la rotación) se describen en el artículo principal sobre simetría .
Con cada tipo de geometría, Felix Klein asoció un grupo de simetría subyacente . La jerarquía de las geometrías se representa entonces por la jerarquía de estos grupos y la jerarquía de sus invariantes . Por ejemplo, las longitudes, los ángulos y las áreas se conservan en el grupo de simetría euclidiana , mientras que solo la estructura de incidencia y la razón dual se conservan en transformaciones proyectivas más generales . La noción de paralelismo , que se conserva en la geometría afín , no tiene significado en la geometría proyectiva . Por lo tanto, al separar los grupos de simetría de las geometrías, se pueden establecer relaciones entre simetrías a nivel de grupo. Dado que el grupo de la geometría afín es un subgrupo de la geometría proyectiva, cualquier noción de invariante en la geometría proyectiva tiene sentido a priori en la geometría afín, lo que no es cierto en la dirección opuesta. Si agrega las simetrías requeridas, obtiene una teoría más sólida, pero menos conceptos y teoremas (que serán más profundos y generales).
El punto de vista de ThurstonWilliam Thurston introdujo una versión similar de simetrías en geometría. El modelo geométrico es una variedad suave X simplemente conectada junto con una operación transitiva del grupo G de Lie en X con estabilizadores compactos. El grupo de Lie se puede considerar como el grupo de simetría de la geometría.
Se dice que un modelo geométrico es maximal si G es maximal entre los grupos que actúan suave y transitivamente sobre X con estabilizadores compactos, es decir, si es un grupo de simetría maximal. A veces, esta definición se incluye en la definición del modelo geométrico.
Una estructura geométrica sobre una variedad M es un morfismo diferenciable de M a X /Γ para algún modelo geométrico X , donde Γ es un subgrupo discreto de G que actúa libremente sobre X. Si una variedad dada admite una estructura geométrica, entonces admite una estructura cuyo modelo es maximal.
Un modelo tridimensional de una geometría X se refiere a un teorema de geometrización si es máxima y si hay al menos una variedad con una estructura geométrica en X. Thurston clasificó 8 modelos de geometrías que satisfacen estas condiciones. Estas simetrías a veces se denominan geometrías de Thurston . (También hay infinitos modelos de geometrías de estabilizadores compactos).
Sea f ( x ) una función de una variable real con valores reales . f es par en el dominio de f
Hablando geométricamente, la gráfica de una función par es simétrica con respecto al eje y , lo que significa que no cambiará cuando se refleje con respecto al eje y .
Ejemplos de funciones pares son || x | , x 2 , x 4 , cos ( x ) y cosh ( x ).
Funciones imparesNuevamente, sea f ( x ) una función de una variable real con valores reales . f es impar si en el dominio de f
o
Geométricamente, la gráfica de una función impar tiene simetría rotacional con respecto al origen , en el sentido de que la gráfica de la función no cambia si se gira 180 grados con respecto al origen.
Las funciones impares son x , x 3 , sin ( x ), sinh ( x ) y erf ( x ).
La integral de una función impar de − A a + A es cero (donde A es finita y la función no tiene asíntotas verticales entre − A y A ).
La integral de una función par de − A a + A es igual al doble de la integral de 0 a + A (donde A es finita y la función no tiene asíntotas verticales entre − A y A . Esto también es cierto para A infinita , pero solo si la integral converge).
En álgebra lineal, una matriz simétrica es una matriz cuadrada que no cambia cuando se transpone . Formalmente, una matriz A es simétrica si
y, por la definición de igualdad de matrices, las dimensiones de las matrices deben coincidir, de modo que solo una matriz cuadrada puede ser simétrica.
Los elementos de una matriz simétrica son simétricos respecto a la diagonal principal . Así, si los elementos de la matriz son A = ( a ij ), entonces a ij = a ji para todos los índices i y j .
La siguiente matriz de 3x3 es simétrica:
Cualquier matriz diagonal cuadrada es simétrica porque todas sus entradas fuera de la diagonal son iguales a cero. Todos los elementos diagonales de una matriz simétrica oblicua deben ser cero, ya que deben ser iguales a su valor negativo.
En álgebra lineal, una matriz simétrica real representa un operador autoadjunto sobre un espacio unitario real . El objeto correspondiente para un espacio unitario complejo es una matriz hermítica con entradas complejas, que es igual a su matriz conjugada hermítica . Así, en álgebra lineal sobre números complejos, una matriz simétrica a menudo significa una matriz con elementos reales. Las matrices simétricas aparecen naturalmente en varias aplicaciones y, como regla, los paquetes de álgebra lineal tienen procedimientos dedicados para ellas.
El grupo simétrico S n sobre un conjunto finito de n símbolos es un grupo cuyos elementos son permutaciones de n símbolos y la operación en este grupo es la composición de tales permutaciones. Estas operaciones se tratan como funciones biyectivas del conjunto de símbolos sobre sí mismo. [1] . Por el hecho de que hay n ! ( n factorial ) de posibles permutaciones de un conjunto de n símbolos, se sigue que el orden de grupo (número de elementos ) del grupo simétrico Sn es n !.
Un polinomio simétrico es un polinomio P ( X 1 , X 2 , …, X n ) en n variables que no cambia cuando se reordenan sus variables. Formalmente , P es un polinomio simétrico si, para cualquier permutación σ de índices 1, 2, …, n , tenemos P ( X σ(1) , X σ(2) , …, X σ( n ) ) = P ( X 1 , X 2 , …, X n ).
Los polinomios simétricos aparecen naturalmente cuando se estudia la relación entre las raíces de un polinomio en una variable y sus coeficientes, ya que los coeficientes se pueden expresar en términos de polinomios en las raíces y todas las raíces juegan el mismo papel en estas expresiones. Desde este punto de vista, los polinomios simétricos básicos son los polinomios simétricos más fundamentales. El teorema fundamental sobre polinomios simétricos establece que cualquier polinomio simétrico se puede expresar en términos de polinomios simétricos básicos, lo que implica que cualquier expresión de polinomio simétrico sobre las raíces de un polinomio normalizado se puede representar como una expresión polinomial sobre el polinomio de coeficientes.
EjemplosPara dos variables X 1 , X 2 polinomios simétricos son
Para tres variables X 1 , X 2 , X 3 será simétrica, por ejemplo,
En matemáticas , un tensor simétrico es un tensor que no cambia cuando se reorganizan sus argumentos :
para cualquier permutación σ de los índices {1,2,…, r }. También se puede representar un tensor simétrico con valencia r como
El espacio de tensores simétricos de valencia r sobre un espacio de dimensión finita es naturalmente isomorfo al espacio dual de polinomios homogéneos de grado r en V . Sobre un campo con característica cero, el espacio vectorial graduado de todos los tensores simétricos se puede identificar naturalmente con el álgebra simétrica en V . Un concepto relacionado es el tensor antisimétrico, o forma alterna . Los tensores simétricos son comunes en ingeniería , física y matemáticas .
Dado un polinomio, es posible que algunas raíces estén relacionadas por diferentes ecuaciones algebraicas . Por ejemplo, puede resultar que para dos raíces, digamos, A y B , . La idea central de la teoría de Galois es el hecho de que cuando las raíces se reordenan , siguen satisfaciendo todas estas ecuaciones. Es importante que al hacerlo nos limitemos a las ecuaciones algebraicas cuyos coeficientes son números racionales . Así, la teoría de Galois estudia las simetrías heredadas de las ecuaciones algebraicas.
En álgebra general , un automorfismo es un isomorfismo de un objeto matemático sobre sí mismo. Por lo tanto, en cierto sentido, es la simetría del objeto y una forma de mapear el objeto sobre sí mismo mientras se mantiene la estructura interna. El conjunto de todos los automorfismos de un objeto forma un grupo llamado grupo de automorfismos . Es, en términos generales, el grupo de simetría del objeto.
EjemplosEn mecánica cuántica, los bosones tienen representaciones que son simétricas con respecto a la permutación de operadores, mientras que los fermiones tienen representaciones antisimétricas.
Esto implica el principio de exclusión de Pauli para fermiones. De hecho, el principio de exclusión de Pauli con una sola función de onda de muchas partículas es equivalente al requisito de que la función de onda sea antisimétrica. La antisimetría del estado de dos partículas se representa como la suma de los estados en los que una partícula está en el estado y la otra en el estado :
y la antisimetría en el intercambio de variables significa que A ( x , y ) = − A ( y , x ). De esto se sigue que A ( x , x ) = 0, que es la excepción de Pauli. El enunciado sigue siendo cierto en cualquier base, ya que cambios unitarios en la base mantienen antisimétricas a las matrices antisimétricas, aunque, estrictamente hablando, la cantidad A ( x , y ) no es una matriz, sino un tensor antisimétrico de segundo orden .
Por el contrario, si los elementos diagonales de A ( x , x ) son cero en cualquier base , entonces el componente de la función de onda
es necesariamente antisimétrica. Para verificar esto, considere el elemento de la matriz
Es cero porque dos partículas tienen cero probabilidad de estar en el mismo estado al mismo tiempo . Pero esto es equivalente
El primer y último término del lado derecho son elementos diagonales y son iguales a cero, y la suma total es igual a cero. Así, para los elementos de la matriz de la función de onda,
.o
Llamamos a una relación simétrica si cada vez que se cumple de A a B, también se cumple de B a A. Tenga en cuenta que la simetría no es lo opuesto a la antisimetría .
La isometría es un mapeo de espacios métricos que preserva la distancia . Dése un espacio métrico, o un conjunto, y un esquema para calcular la distancia entre los elementos del conjunto. Una isometría es una transformación que asigna elementos a otro espacio métrico de manera que la distancia entre los elementos en el nuevo espacio métrico es igual a la distancia entre los elementos en el espacio original. En el espacio bidimensional o tridimensional, dos figuras geométricas son congruentes si están conectadas por isometría, ya sea por el movimiento de un cuerpo absolutamente rígido o por la composición del movimiento y la reflexión .
La simetría de las ecuaciones diferenciales es una transformación que deja la ecuación diferencial sin cambios. Conocer tales simetrías puede ayudar a resolver la ecuación diferencial.
La simetría de Lie de un sistema de ecuaciones diferenciales es una simetría continua de ecuaciones diferenciales. El conocimiento de la simetría de Lie puede ayudar a simplificar las ecuaciones diferenciales ordinarias al reducir el orden . [cuatro]
Para las ecuaciones diferenciales ordinarias, conocer un conjunto adecuado de simetrías de Lie permite obtener explícitamente las primeras integrales, lo que da inmediatamente una solución sin integrar la ecuación.
Las simetrías se pueden encontrar resolviendo un conjunto acoplado de ecuaciones diferenciales ordinarias. [4] Resolver estas ecuaciones suele ser mucho más fácil que resolver el sistema original de ecuaciones diferenciales.
En el caso de un número finito de eventos posibles, la simetría que tiene en cuenta las permutaciones (renumeración) da una distribución uniforme discreta .
En el caso de que los eventos representen un intervalo de números reales, la simetría que toma en cuenta permutaciones de subintervalos de igual longitud corresponde a una distribución uniforme continua .
En otros casos, como "elegir un entero aleatorio" o "elegir un real aleatorio", no hay simetría en la distribución de probabilidad, lo que permite permutaciones de números o intervalos de igual longitud. Otras simetrías aceptables no conducen a una distribución particular o, en otras palabras, no existe una distribución de probabilidad única que proporcione la máxima simetría.
Hay un tipo de isometría unidimensional que puede mantener la distribución de probabilidad sin cambios, es una reflexión sobre un punto, por ejemplo, cero.
Una posible simetría para valores aleatorios con probabilidad positiva es la que se aplica a los logaritmos, es decir, cuando el evento y su recíproco tienen la misma distribución. Sin embargo, esta simetría no conduce a una distribución de probabilidad definida.
Para un "punto aleatorio" en un plano o en el espacio, se puede elegir un centro y considerar la simetría de la distribución de probabilidad con respecto a un círculo o esfera.
![]() | |
---|---|
En catálogos bibliográficos |