La descomposición espectral de una matriz o la descomposición de una matriz basada en vectores propios es una representación de una matriz cuadrada como producto de tres matrices , donde es una matriz cuyas columnas son los vectores propios de la matriz , es una matriz diagonal con valores propios correspondientes en la diagonal principal, es la matriz inversa de la matriz .
Solo las matrices que tienen un conjunto completo de vectores propios, es decir, un conjunto de n vectores propios linealmente independientes , donde n es el orden de la matriz , pueden representarse de esta forma .
La descomposición espectral se puede utilizar para encontrar valores propios y vectores propios de una matriz, resolver sistemas de ecuaciones lineales, invertir una matriz, encontrar el determinante de una matriz y calcular funciones analíticas de matrices.
Un vector dimensional N distinto de cero es un vector propio de una matriz cuadrada si satisface la ecuación lineal
,donde es un escalar llamado valor propio de la matriz y correspondiente al vector propio . Es decir, los vectores propios son los vectores que la transformación lineal solo alarga o acorta, y el valor propio es el factor de cambio de longitud. La ecuación anterior se llama ecuación de valores propios o problema de valores propios .
La ecuación anterior se puede ver como un sistema homogéneo de ecuaciones lineales
,donde es un parámetro escalar y es una solución no trivial de un sistema homogéneo de ecuaciones lineales. Las soluciones no triviales de un sistema homogéneo de ecuaciones lineales existen solo cuando el determinante de la matriz del sistema es igual a cero, es decir
El polinomio se denomina polinomio característico de la matriz , y la ecuación anterior se denomina ecuación característica . La ecuación característica es una ecuación polinómica de orden N en la variable . Esta ecuación tiene diferentes raíces, donde . El conjunto de soluciones, es decir, los valores propios, se denomina espectro de la matriz [1] [2] [3] .
Factorizamos el polinomio característico :
El número natural n i se llama la multiplicidad algebraica del valor propio . Si el campo de los escalares es algebraicamente cerrado , la suma de las multiplicidades algebraicas es N :
Para cada valor propio, se resuelve una ecuación separada para vectores propios:
Hay soluciones linealmente independientes para cada una de estas ecuaciones. Las combinaciones lineales de m i soluciones son vectores propios asociados con el valor propio . El entero m i se llama la multiplicidad geométrica del valor . La multiplicidad algebraica y la multiplicidad geométrica pueden no coincidir, pero siempre . El número total de vectores propios linealmente independientes se puede calcular sumando las multiplicidades geométricas
Los vectores propios se pueden indexar por valores propios utilizando un índice doble, lo que significaría entonces el j -ésimo vector propio para el i -ésimo valor propio. Una indexación más simple utiliza un solo índice donde .
Sea una matriz cuadrada con n vectores propios linealmente independientes q i ( ). Entonces puedes descomponer
,donde es una matriz cuadrada cuya i -ésima columna es el vector propio de la matriz , y es una matriz diagonal cuyos elementos diagonales son los valores propios correspondientes, . Tenga en cuenta que solo las matrices diagonalizables se pueden descomponer de esta manera. Por ejemplo, una matriz de desplazamiento no se puede diagonalizar.
Por lo general, los vectores propios q i están normalizados , pero esto no es necesario; un conjunto no normalizado de n vectores propios v i también se puede utilizar como columnas de matriz .
La descomposición se puede obtener a partir de la propiedad fundamental de los vectores propios:
matriz real
se puede reducir a una forma diagonal mediante la multiplicación por una matriz no singular
Después
para alguna matriz diagonal real .
Multiplicando ambos lados de la igualdad de la izquierda por , obtenemos:
La igualdad anterior se puede descomponer en dos sistemas de ecuaciones :
Sacando los valores propios de x e y :
Obtenemos
lo que nos da dos ecuaciones vectoriales:
El último sistema se puede representar mediante una sola ecuación vectorial, que incluye soluciones para dos valores propios:
,donde representa los dos valores propios x e y , y representa los vectores y .
Moviéndonos hacia el lado izquierdo y sacando , obtenemos
Como la matriz no es degenerada, es importante que el vector no sea nulo. Es por eso,
Después
nos da las soluciones de valores propios para la matriz como o , y la matriz diagonal resultante de la descomposición de matrices es entonces .
Si volvemos a sustituir las soluciones en el sistema de ecuaciones anterior, obtenemos
Resolviendo las ecuaciones, obtenemos
Entonces la matriz requerida para factorizar la matriz es
Eso es:
Sea la matriz una descomposición espectral y ninguno de los autovalores de la matriz sea igual a cero. En este caso, la matriz es no singular , y su matriz inversa se encuentra mediante la fórmula
Si la matriz es una matriz simétrica , se garantiza que la matriz sea ortogonal , es decir, . Y como la matriz es diagonal , entonces su inversa es fácil de calcular:
Valor práctico [4]Si se usa la descomposición de vectores propios en una matriz medida con datos reales , entonces la matriz inversa puede estar peor condicionada si todos los valores propios se usan sin cambios. El punto es que cuando los autovalores se vuelven relativamente pequeños, la contribución de sus inversas a la matriz inversa es grande. Estos valores cercanos a cero o "ruido" del sistema de medición tendrán una influencia indebida y pueden interferir con la solución de inversión.
Se han propuesto dos opciones de mitigación: descartar valores propios pequeños o nulos y copiar el valor confiable más pequeño en otros más pequeños.
La primera opción de mitigación es similar a la escasa matriz original, en la que se eliminan los elementos que se consideran insignificantes. Sin embargo, si se encuentra que el proceso de solución está cerca del nivel de ruido, la reversión puede eliminar componentes que afectan la solución deseada.
La segunda opción de mitigación copia el valor propio para que los valores más pequeños tengan menos efecto en el resultado de la inversión, pero aun así contribuyen a que se puedan encontrar soluciones incluso cercanas al nivel de ruido.
Se puede encontrar un valor propio confiable bajo el supuesto de que los valores propios son extremadamente cercanos y el valor bajo es una buena representación del ruido de medición (que se supone que es bajo para la mayoría de los sistemas).
Si los valores propios están ordenados por magnitud, se puede encontrar un valor propio confiable minimizando el Laplaciano de los valores propios ordenados [5] :
,donde los valores propios están marcados con s para denotar clasificación (del inglés sorted). La ubicación del mínimo es el valor propio confiable más pequeño. En los sistemas de medición, la raíz cuadrada de este valor propio confiable es el ruido promedio relativo a los otros componentes del sistema.
Deje que la matriz cuadrada tenga una descomposición . Luego, elevar la matriz a una potencia natural se calcula mediante una fórmula simple:
aquí los productos se cancelan en la expresión intermedia . La operación de elevar a una potencia natural permite definir diversas funciones sobre matrices, las cuales se expresan en forma de series de potencias. Deje que la función tenga una expansión en una serie de potencias
Descomponer una matriz en términos de valores propios le permite calcular rápidamente la serie de potencias de la matriz. Sea f ( x ) dada por una serie de potencias
De acuerdo con la fórmula de la potencia de la matriz anterior, la serie de potencias de la matriz se puede calcular mediante la fórmula
,donde es una función de la matriz diagonal , que se puede calcular muy fácilmente:
En este caso, los elementos fuera de la diagonal de la matriz son iguales a cero. Es decir, es también una matriz diagonal. Como resultado, el cálculo de una función a partir de una matriz se reduce a un simple cálculo de una función a partir de cada uno de los autovalores.
Una técnica similar también funciona de manera más general en el cálculo funcional holomorfo , usando la fórmula
es posible calcular series de potencias a partir de matrices que contienen exponentes negativos. Aquí nuevamente se usa that .
Raíz cuadrada de una matriz:
Vamos a elevarlo al cuadrado y asegurarnos de que sea correcto:
El exponente de la matriz se define de manera similar :
Una matriz cuadrada compleja es normal (es decir , donde es conjugado hermitiano ) si y solo si se puede descomponer
donde es unitario (lo que significa que ) y es una matriz diagonal [6] . Las columnas de la matriz forman una base ortonormal y son vectores propios de la matriz con los valores propios correspondientes .
Si la clase de matrices se limita a las matrices hermitianas ( ), entonces solo tiene valores reales. Si la clase de matrices está restringida a matrices unitarias, entonces todos los valores se encuentran en el círculo unitario complejo, es decir, .
Para cualquier matriz simétrica real , los valores propios son reales y los vectores propios se pueden elegir para que sean reales y ortonormales . Por lo tanto, una matriz simétrica real se puede descomponer en
donde es una matriz ortogonal cuyas columnas son los vectores propios de la matriz , y es una matriz diagonal cuyos valores en la diagonal son iguales a los valores propios de la matriz [7] .
Supongamos que se requiere calcular los valores propios de una matriz dada. Si las dimensiones de la matriz son pequeñas, los valores propios se pueden calcular simbólicamente utilizando el polinomio característico . Sin embargo, a menudo esto no es posible para matrices grandes, en cuyo caso se utilizan métodos numéricos .
En la práctica, los valores propios de matrices grandes no se calculan utilizando el polinomio característico. El cálculo de un polinomio se vuelve en sí mismo lento y lento, y las raíces exactas (simbólicas) de un polinomio de alto grado son difíciles de calcular y expresar; del teorema de Abel sobre la insolubilidad de las ecuaciones en radicales se deduce que las raices de polinomios de alto grado (5 y mas) no pueden ser en el caso general se presentan como expresiones de las raices de n-ésimo grado. Por esta razón, los algoritmos generales para encontrar vectores propios y valores propios funcionan de forma iterativa .
Existen algoritmos numéricos iterativos para aproximar las raíces de polinomios, como el método de Newton , pero generalmente no es práctico construir un polinomio característico y luego aplicar estos métodos. Una de las razones es que pequeños errores de redondeo en los coeficientes del polinomio característico pueden conducir a grandes errores en los valores propios y los vectores propios: las raíces son una función extremadamente mal condicionada de los coeficientes [8] .
Un método iterativo simple y preciso es el método de la potencia : se selecciona un vector aleatorio y se calcula una secuencia de vectores unitarios .
Esta secuencia casi siempre converge a un vector propio correspondiente al valor propio más grande, siempre que el vector correspondiente a este vector propio tenga un componente distinto de cero en la base de los vectores propios (y también siempre que haya solo un valor propio más grande). Este algoritmo simple es útil en algunas aplicaciones prácticas. Por ejemplo, Google lo utiliza para calcular el ranking de enlaces de documentos en su motor de búsqueda [9] . Además, el método de potencia es el punto de partida para muchos otros algoritmos complejos. Por ejemplo, si almacena no solo el último vector de la secuencia, sino que observa el intervalo lineal de todos los vectores de la secuencia, puede obtener una mejor aproximación (que converge más rápido) del vector propio, y esta idea es la base de Arnoldi . iteración [8] . El también importante algoritmo QR también se basa en un método de potencia ligeramente modificado [8] .
Una vez que se han calculado los valores propios, los vectores propios se pueden calcular resolviendo la ecuación
utilizando la eliminación gaussiana o cualquier otro método para resolver una ecuación matricial .
Sin embargo, en los métodos prácticos para encontrar los valores propios de matrices grandes, los vectores propios generalmente se calculan de otras maneras como un subproducto del cálculo del valor propio. En el método de potencia , por ejemplo, el vector propio generalmente se calcula antes de que se calcule el valor propio (que generalmente se calcula de acuerdo con la relación de Rayleigh para el vector propio) [8] . En el algoritmo QR para una matriz hermítica (o cualquier matriz normal ), los vectores propios ortonormales se obtienen como un producto matricial de los pasos del algoritmo [8] . (Para matrices más generales, el algoritmo QR primero realiza una descomposición de Schur , a partir de la cual se pueden obtener los vectores propios por sustitución regresiva [10] ) Para matrices hermitianas , el algoritmo de búsqueda de valores propios divide y vencerás es más eficiente que el Algoritmo QR si se necesitan tanto vectores propios como valores propios [8] .
Recuerde que la multiplicidad geométrica de un valor propio se puede describir como la dimensión del espacio propio asociado, el núcleo de la matriz . La multiplicidad algebraica también se puede considerar como una dimensión: es la dimensión del espacio propio generalizado asociado (en el primer sentido), que es el núcleo de una matriz para cualquier k suficientemente grande . Es decir, es el espacio de vectores propios generalizados (en el primer sentido), donde un vector propio generalizado es cualquier vector que eventualmente se convierte en 0 si se aplica suficientes veces. Cualquier vector propio es un vector propio generalizado y, por lo tanto, cualquier espacio propio está contenido en el espacio propio generalizado asociado. Esto da una prueba sencilla de que la multiplicidad geométrica nunca supera a la multiplicidad algebraica.
Este uso no debe confundirse con el problema de valor propio generalizado que se describe a continuación.
Un vector propio conjugado es un vector que, después de una transformación lineal, pasa (hasta la multiplicación por un escalar) a su conjugado. El escalar se llama entonces el valor propio conjugado de la transformación lineal. Los vectores propios y valores propios conjugados representan esencialmente la misma información que los vectores propios y valores propios ordinarios, pero surgen cuando se utilizan otros sistemas de coordenadas. La igualdad correspondiente será
Por ejemplo, en la teoría de la dispersión electromagnética coherente, la transformación lineal representa la acción realizada por el objeto dispersor y los vectores propios representan los estados de polarización de la onda electromagnética. En óptica , el sistema de coordenadas se define desde el punto de vista de la onda, conocido como Alineación de dispersión frontal ( eng. Alineación de dispersión frontal , FSA), y genera ecuaciones ordinarias de valores propios, mientras que en radar , el sistema de coordenadas se define a partir de la lado del radar, se conoce como alineación de retrodispersión ( Eng. Back Scattering Alignment , BSA) y genera ecuaciones para vectores propios conjugados.
El problema generalizado de encontrar valores propios (en el segundo sentido) es el problema de encontrar un vector que satisfaga la igualdad
donde y son matrices. Si se cumple esta igualdad para algunos , entonces llamamos vector propio generalizado de las matrices y (en el segundo sentido), y se llama valor propio generalizado de las matrices y (en el segundo sentido), correspondiente al vector propio generalizado . Los posibles valores deben satisfacer la siguiente igualdad
Si es posible encontrar vectores linealmente independientes tales que para cualquier , , definimos matrices y como sigue
Entonces se cumple la siguiente igualdad
Prueba
Y como es reversible, multiplicamos por este inverso y obtenemos el resultado deseado.
El conjunto de matrices de la forma , donde es un número complejo, se llama haz . El término haz de matrices también puede referirse a un par de matrices [11] .
Si la matriz es invertible, entonces el problema original se puede reescribir como
que es el problema estándar de valores propios. En la mayoría de las situaciones, sin embargo, no es deseable realizar esta inversión, sino resolver el problema de valor propio generalizado. Esto es especialmente importante si las matrices y son hermíticas , ya que en este caso no suele ser hermítica en general y ya no aparecen las propiedades importantes de la solución.
Si ambas matrices y son simétricas y hermíticas y además es definida positiva , los valores propios son reales y los vectores propios y con valores propios diferentes son -ortogonales ( ) [12] . En este caso, los vectores propios se pueden elegir de modo que la matriz definida anteriormente satisfaga las condiciones
o ,y hay una base de vectores propios generalizados (no es una matriz de defectos ) [11] . Este caso a veces se denomina gavilla definida hermítica [11] .
Vectores y matrices | |||||||||
---|---|---|---|---|---|---|---|---|---|
Vectores |
| ||||||||
matrices |
| ||||||||
Otro |