Descomposición espectral de una matriz

La descomposición espectral de una matriz o la descomposición de una matriz basada en vectores propios es una representación de una matriz cuadrada como producto de tres matrices , donde es una matriz cuyas columnas son los vectores propios de la matriz , es una matriz diagonal con valores propios correspondientes en la diagonal principal, es la matriz inversa de la matriz .

Solo las matrices que tienen un conjunto completo de vectores propios, es decir, un conjunto de n vectores propios linealmente independientes , donde n es el orden de la matriz , pueden representarse de esta forma .

La descomposición espectral se puede utilizar para encontrar valores propios y vectores propios de una matriz, resolver sistemas de ecuaciones lineales, invertir una matriz, encontrar el determinante de una matriz y calcular funciones analíticas de matrices.

La teoría de los vectores propios y los valores propios de las matrices

Un vector dimensional N distinto de cero es un vector propio de una matriz cuadrada si satisface la ecuación lineal

,

donde es un escalar llamado valor propio de la matriz y correspondiente al vector propio . Es decir, los vectores propios son los vectores que la transformación lineal solo alarga o acorta, y el valor propio es el factor de cambio de longitud. La ecuación anterior se llama ecuación de valores propios o problema de valores propios .

La ecuación anterior se puede ver como un sistema homogéneo de ecuaciones lineales

,

donde es un parámetro escalar y es una solución no trivial de un sistema homogéneo de ecuaciones lineales. Las soluciones no triviales de un sistema homogéneo de ecuaciones lineales existen solo cuando el determinante de la matriz del sistema es igual a cero, es decir

El polinomio se denomina polinomio característico de la matriz , y la ecuación anterior se denomina ecuación característica . La ecuación característica es una ecuación polinómica de orden N en la variable . Esta ecuación tiene diferentes raíces, donde . El conjunto de soluciones, es decir, los valores propios, se denomina espectro de la matriz [1] [2] [3] .

Factorizamos el polinomio característico :

El número natural n i se llama la multiplicidad algebraica del valor propio . Si el campo de los escalares es algebraicamente cerrado , la suma de las multiplicidades algebraicas es N :

Para cada valor propio, se resuelve una ecuación separada para vectores propios:

Hay soluciones linealmente independientes para cada una de estas ecuaciones. Las combinaciones lineales de m i soluciones son vectores propios asociados con el valor propio . El entero m i se llama la multiplicidad geométrica del valor . La multiplicidad algebraica y la multiplicidad geométrica pueden no coincidir, pero siempre . El número total de vectores propios linealmente independientes se puede calcular sumando las multiplicidades geométricas

Los vectores propios se pueden indexar por valores propios utilizando un índice doble, lo que significaría entonces el j -ésimo vector propio para el i -ésimo valor propio. Una indexación más simple utiliza un solo índice donde .

Descomposición de matrices usando vectores propios

Sea una matriz cuadrada con n vectores propios linealmente independientes q i ( ). Entonces puedes descomponer

,

donde es una matriz cuadrada cuya i -ésima columna es el vector propio de la matriz , y es una matriz diagonal cuyos elementos diagonales son los valores propios correspondientes, . Tenga en cuenta que solo las matrices diagonalizables se pueden descomponer de esta manera. Por ejemplo, una matriz de desplazamiento no se puede diagonalizar.

Por lo general, los vectores propios q i están normalizados , pero esto no es necesario; un conjunto no normalizado de n vectores propios v i también se puede utilizar como columnas de matriz .

La descomposición se puede obtener a partir de la propiedad fundamental de los vectores propios:

Ejemplo

matriz real

se puede reducir a una forma diagonal mediante la multiplicación por una matriz no singular

Después

para alguna matriz diagonal real .

Multiplicando ambos lados de la igualdad de la izquierda por , obtenemos:

La igualdad anterior se puede descomponer en dos sistemas de ecuaciones :

Sacando los valores propios de x e y :

Obtenemos

lo que nos da dos ecuaciones vectoriales:

El último sistema se puede representar mediante una sola ecuación vectorial, que incluye soluciones para dos valores propios:

,

donde representa los dos valores propios x e y , y representa los vectores y .

Moviéndonos hacia el lado izquierdo y sacando , obtenemos

Como la matriz no es degenerada, es importante que el vector no sea nulo. Es por eso,

Después

nos da las soluciones de valores propios para la matriz como o , y la matriz diagonal resultante de la descomposición de matrices es entonces .

Si volvemos a sustituir las soluciones en el sistema de ecuaciones anterior, obtenemos

Resolviendo las ecuaciones, obtenemos

Entonces la matriz requerida para factorizar la matriz es

Eso es:

Inversión de matriz a través de la expansión de vectores propios

Sea la matriz una descomposición espectral y ninguno de los autovalores de la matriz sea igual a cero. En este caso, la matriz es no singular , y su matriz inversa se encuentra mediante la fórmula

Si la matriz es una matriz simétrica , se garantiza que la matriz sea ortogonal , es decir, . Y como la matriz es diagonal , entonces su inversa es fácil de calcular:

Valor práctico [4]

Si se usa la descomposición de vectores propios en una matriz medida con datos reales , entonces la matriz inversa puede estar peor condicionada si todos los valores propios se usan sin cambios. El punto es que cuando los autovalores se vuelven relativamente pequeños, la contribución de sus inversas a la matriz inversa es grande. Estos valores cercanos a cero o "ruido" del sistema de medición tendrán una influencia indebida y pueden interferir con la solución de inversión.

Se han propuesto dos opciones de mitigación: descartar valores propios pequeños o nulos y copiar el valor confiable más pequeño en otros más pequeños.

La primera opción de mitigación es similar a la escasa matriz original, en la que se eliminan los elementos que se consideran insignificantes. Sin embargo, si se encuentra que el proceso de solución está cerca del nivel de ruido, la reversión puede eliminar componentes que afectan la solución deseada.

La segunda opción de mitigación copia el valor propio para que los valores más pequeños tengan menos efecto en el resultado de la inversión, pero aun así contribuyen a que se puedan encontrar soluciones incluso cercanas al nivel de ruido.

Se puede encontrar un valor propio confiable bajo el supuesto de que los valores propios son extremadamente cercanos y el valor bajo es una buena representación del ruido de medición (que se supone que es bajo para la mayoría de los sistemas).

Si los valores propios están ordenados por magnitud, se puede encontrar un valor propio confiable minimizando el Laplaciano de los valores propios ordenados [5] :

,

donde los valores propios están marcados con s para denotar clasificación (del inglés sorted). La ubicación del mínimo es el valor propio confiable más pequeño. En los sistemas de medición, la raíz cuadrada de este valor propio confiable es el ruido promedio relativo a los otros componentes del sistema.

Cálculo funcional

Deje que la matriz cuadrada tenga una descomposición . Luego, elevar la matriz a una potencia natural se calcula mediante una fórmula simple:

aquí los productos se cancelan en la expresión intermedia . La operación de elevar a una potencia natural permite definir diversas funciones sobre matrices, las cuales se expresan en forma de series de potencias. Deje que la función tenga una expansión en una serie de potencias

Descomponer una matriz en términos de valores propios le permite calcular rápidamente la serie de potencias de la matriz. Sea f  ( x ) dada por una serie de potencias

De acuerdo con la fórmula de la potencia de la matriz anterior, la serie de potencias de la matriz se puede calcular mediante la fórmula

,

donde es una función de la matriz diagonal , que se puede calcular muy fácilmente:

En este caso, los elementos fuera de la diagonal de la matriz son iguales a cero. Es decir, es también una matriz diagonal. Como resultado, el cálculo de una función a partir de una matriz se reduce a un simple cálculo de una función a partir de cada uno de los autovalores.

Una técnica similar también funciona de manera más general en el cálculo funcional holomorfo , usando la fórmula

es posible calcular series de potencias a partir de matrices que contienen exponentes negativos. Aquí nuevamente se usa that .

Ejemplos

Raíz cuadrada de una matriz:

Vamos a elevarlo al cuadrado y asegurarnos de que sea correcto:

El exponente de la matriz se define de manera similar :

Descomposición de matrices especiales

Matrices normales

Una matriz cuadrada compleja es normal (es decir , donde es conjugado hermitiano ) si y solo si se puede descomponer

donde es unitario (lo que significa que ) y es una matriz diagonal [6] . Las columnas de la matriz forman una base ortonormal y son vectores propios de la matriz con los valores propios correspondientes .

Si la clase de matrices se limita a las matrices hermitianas ( ), entonces solo tiene valores reales. Si la clase de matrices está restringida a matrices unitarias, entonces todos los valores se encuentran en el círculo unitario complejo, es decir, .

Matrices simétricas reales

Para cualquier matriz simétrica real , los valores propios son reales y los vectores propios se pueden elegir para que sean reales y ortonormales . Por lo tanto, una matriz simétrica real se puede descomponer en

donde es una matriz ortogonal cuyas columnas son los vectores propios de la matriz , y es una matriz diagonal cuyos valores en la diagonal son iguales a los valores propios de la matriz [7] .

Datos útiles

Datos útiles sobre valores propios

  • El producto de valores propios es igual al determinante de la matriz Tenga en cuenta que cada valor propio se eleva a la potencia n i , una multiplicidad algebraica.
  • La suma de los valores propios es igual a la traza de la matriz Tenga en cuenta que cada valor propio se multiplica por ni , una multiplicidad algebraica.
  • Si hay valores propios de la matriz y es invertible, entonces los valores propios de la matriz son simplemente .
  • Si hay valores propios de la matriz , entonces los valores propios de la matriz son simplemente iguales para cualquier función holomorfa f .

Datos útiles sobre vectores propios

  • Si la matriz es hermítica y tiene rango completo, la base del vector propio se puede elegir para que sea mutuamente ortogonal . Los autovalores son reales.
  • Los vectores propios de la matriz son los mismos que los vectores propios de la matriz .
  • Los vectores propios se definen hasta un factor constante. Es decir, si , entonces también es un vector propio para cualquier escalar c ≠ 0 . En particular, y (para cualquier ) también son vectores propios.
  • En el caso de valores propios degenerados (un valor propio aparece más de una vez), los vectores propios tienen un grado adicional de libertad de rotación, es decir, cualquier combinación lineal (ortonormal) de vectores propios con el mismo valor propio es en sí misma un vector propio.

Datos útiles sobre la descomposición de vectores propios

  • Una matriz se puede descomponer usando vectores propios si y solo si el número de vectores propios linealmente independientes es igual a la dimensión del vector propio:
  • Si no tiene raíces múltiples, es decir, si , entonces se puede descomponer.
  • Del enunciado "la matriz se puede descomponer" no se sigue que tenga una inversa.
  • De la declaración "la matriz tiene una inversa" no se sigue que pueda descomponerse usando vectores propios. El contraejemplo es matrix , que es una matriz de defectos invertible .

Datos útiles sobre la matriz inversa

  • Una matriz es invertible si y solo si
  • Si y , la matriz inversa está dada por la igualdad

Cálculos numéricos

Cálculo numérico de valores propios

Supongamos que se requiere calcular los valores propios de una matriz dada. Si las dimensiones de la matriz son pequeñas, los valores propios se pueden calcular simbólicamente utilizando el polinomio característico . Sin embargo, a menudo esto no es posible para matrices grandes, en cuyo caso se utilizan métodos numéricos .

En la práctica, los valores propios de matrices grandes no se calculan utilizando el polinomio característico. El cálculo de un polinomio se vuelve en sí mismo lento y lento, y las raíces exactas (simbólicas) de un polinomio de alto grado son difíciles de calcular y expresar; del teorema de Abel sobre la insolubilidad de las ecuaciones en radicales se deduce que las raices de polinomios de alto grado (5 y mas) no pueden ser en el caso general se presentan como expresiones de las raices de n-ésimo grado. Por esta razón, los algoritmos generales para encontrar vectores propios y valores propios funcionan de forma iterativa .

Existen algoritmos numéricos iterativos para aproximar las raíces de polinomios, como el método de Newton , pero generalmente no es práctico construir un polinomio característico y luego aplicar estos métodos. Una de las razones es que pequeños errores de redondeo en los coeficientes del polinomio característico pueden conducir a grandes errores en los valores propios y los vectores propios: las raíces son una función extremadamente mal condicionada de los coeficientes [8] .

Un método iterativo simple y preciso es el método de la potencia : se selecciona un vector aleatorio y se calcula una secuencia de vectores unitarios .

Esta secuencia casi siempre converge a un vector propio correspondiente al valor propio más grande, siempre que el vector correspondiente a este vector propio tenga un componente distinto de cero en la base de los vectores propios (y también siempre que haya solo un valor propio más grande). Este algoritmo simple es útil en algunas aplicaciones prácticas. Por ejemplo, Google lo utiliza para calcular el ranking de enlaces de documentos en su motor de búsqueda [9] . Además, el método de potencia es el punto de partida para muchos otros algoritmos complejos. Por ejemplo, si almacena no solo el último vector de la secuencia, sino que observa el intervalo lineal de todos los vectores de la secuencia, puede obtener una mejor aproximación (que converge más rápido) del vector propio, y esta idea es la base de Arnoldi . iteración [8] . El también importante algoritmo QR también se basa en un método de potencia ligeramente modificado [8] .

Cálculo numérico de vectores propios

Una vez que se han calculado los valores propios, los vectores propios se pueden calcular resolviendo la ecuación

utilizando la eliminación gaussiana o cualquier otro método para resolver una ecuación matricial .

Sin embargo, en los métodos prácticos para encontrar los valores propios de matrices grandes, los vectores propios generalmente se calculan de otras maneras como un subproducto del cálculo del valor propio. En el método de potencia , por ejemplo, el vector propio generalmente se calcula antes de que se calcule el valor propio (que generalmente se calcula de acuerdo con la relación de Rayleigh para el vector propio) [8] . En el algoritmo QR para una matriz hermítica (o cualquier matriz normal ), los vectores propios ortonormales se obtienen como un producto matricial de los pasos del algoritmo [8] . (Para matrices más generales, el algoritmo QR primero realiza una descomposición de Schur , a partir de la cual se pueden obtener los vectores propios por sustitución regresiva [10] ) Para matrices hermitianas , el algoritmo de búsqueda de valores propios divide y vencerás es más eficiente que el Algoritmo QR si se necesitan tanto vectores propios como valores propios [8] .

Temas adicionales

Espacios propios generalizados

Recuerde que la multiplicidad geométrica de un valor propio se puede describir como la dimensión del espacio propio asociado, el núcleo de la matriz . La multiplicidad algebraica también se puede considerar como una dimensión: es la dimensión del espacio propio generalizado asociado (en el primer sentido), que es el núcleo de una matriz para cualquier k suficientemente grande . Es decir, es el espacio de vectores propios generalizados (en el primer sentido), donde un vector propio generalizado es cualquier vector que eventualmente se convierte en 0 si se aplica suficientes veces. Cualquier vector propio es un vector propio generalizado y, por lo tanto, cualquier espacio propio está contenido en el espacio propio generalizado asociado. Esto da una prueba sencilla de que la multiplicidad geométrica nunca supera a la multiplicidad algebraica.

Este uso no debe confundirse con el problema de valor propio generalizado que se describe a continuación.

Vector propio conjugado

Un vector propio conjugado es un vector que, después de una transformación lineal, pasa (hasta la multiplicación por un escalar) a su conjugado. El escalar se llama entonces el valor propio conjugado de la transformación lineal. Los vectores propios y valores propios conjugados representan esencialmente la misma información que los vectores propios y valores propios ordinarios, pero surgen cuando se utilizan otros sistemas de coordenadas. La igualdad correspondiente será

Por ejemplo, en la teoría de la dispersión electromagnética coherente, la transformación lineal representa la acción realizada por el objeto dispersor y los vectores propios representan los estados de polarización de la onda electromagnética. En óptica , el sistema de coordenadas se define desde el punto de vista de la onda, conocido como Alineación de dispersión frontal ( eng. Alineación de dispersión frontal , FSA), y genera ecuaciones ordinarias de valores propios, mientras que en radar , el sistema de coordenadas se define a partir de la lado del radar, se conoce como alineación de retrodispersión ( Eng. Back Scattering Alignment , BSA) y genera ecuaciones para vectores propios conjugados.   

El problema generalizado de encontrar valores propios

El problema generalizado de encontrar valores propios (en el segundo sentido) es el problema de encontrar un vector que satisfaga la igualdad

donde y son matrices. Si se cumple esta igualdad para algunos , entonces llamamos vector propio generalizado de las matrices y (en el segundo sentido), y se llama valor propio generalizado de las matrices y (en el segundo sentido), correspondiente al vector propio generalizado . Los posibles valores deben satisfacer la siguiente igualdad

Si es posible encontrar vectores linealmente independientes tales que para cualquier , , definimos matrices y como sigue

Entonces se cumple la siguiente igualdad

Prueba

Y como es reversible, multiplicamos por este inverso y obtenemos el resultado deseado.

El conjunto de matrices de la forma , donde es un número complejo, se llama haz . El término haz de matrices también puede referirse a un par de matrices [11] .

Si la matriz es invertible, entonces el problema original se puede reescribir como

que es el problema estándar de valores propios. En la mayoría de las situaciones, sin embargo, no es deseable realizar esta inversión, sino resolver el problema de valor propio generalizado. Esto es especialmente importante si las matrices y son hermíticas , ya que en este caso no suele ser hermítica en general y ya no aparecen las propiedades importantes de la solución.

Si ambas matrices y son simétricas y hermíticas y además es definida positiva , los valores propios son reales y los vectores propios y con valores propios diferentes son -ortogonales ( ) [12] . En este caso, los vectores propios se pueden elegir de modo que la matriz definida anteriormente satisfaga las condiciones

o ,

y hay una base de vectores propios generalizados (no es una matriz de defectos ) [11] . Este caso a veces se denomina gavilla definida hermítica [11] .

Véase también

Notas

  1. Golub, Van Loan, 1996 , pág. 310.
  2. Kreyszig, 1972 , pág. 273.
  3. Nering, 1970 , pág. 270.
  4. Hayde, Twede, 2002 , pág. 355.
  5. Hayde, Twede, 2002 , pág. 299.
  6. Horn y Johnson, 1985 , pág. 133 Teorema 2.5.3.
  7. Horn y Johnson, 1985 , pág. 136 Teorema 2.5.3 Corolario 2.5.11.
  8. 1 2 3 4 5 6 Trefethen, Bau, 1997 .
  9. Ipsen, Testamentos, 2005 .
  10. Quarteroni, Sacco, Saleri, 2000 , p. quince.
  11. 1 2 3 Bai, Demmel, 2000 .
  12. Parlett, 1998 , pág. 345.

Literatura

  • Hayde AF, Twede DR Observaciones sobre la relación entre los valores propios, el ruido del instrumento y el rendimiento de detección // Espectrometría de imágenes VIII. / Silvia S. Shen. - 2002. - T. 4816 . -doi : 10.1117/ 12.453777 . - .
  • Twede DR, Hayden AF Refinamiento y generalización del método de extensión de inversión de matriz de covarianza por regularización // Espectrometría de imágenes IX .. - 2004. - T. 5159 . -doi : 10.1117/ 12.506993 . - .
  • Lloyd N. Trefethen, David Bau. Álgebra lineal numérica. - "SIAM, 1997. - ISBN 978-0-89871-361-9 .
  • Alfio Quarteroni, Riccardo Sacco, Fausto Saleri. apartado 5.8.2 // Matemáticas Numéricas . - "Springer, 2000. - ISBN 978-0-387-98959-4 .
  • Beresford N. Parlet. El problema de los valores propios simétricos . - Reimpresión.. - Filadelfia: "Sociedad de Matemáticas Industriales y Aplicadas, 1998. - ISBN 978-0-89871-402-9 . -doi : 10.1137/ 1.9781611971163 .
    • Traducido por B. Parlett. Problema de valores propios simétricos. - Moscú: Mir, 1983.
  • Ilse Ipsen, Rebecca M. Wills. Análisis y cálculo del PageRank de Google // 7º Simposio internacional IMACS sobre métodos iterativos en informática científica, Fields Institute, Toronto, Canadá, 5 al 8 de mayo de 2005 . — 2005.
  • Problemas de valores propios hermitianos generalizados // Plantillas para la solución de problemas de valores propios algebraicos: una guía práctica / Z. Bai, J. Demmel, J. Dongarra, A. Ruhe, H. Van Der Vorst. - Filadelfia: SIAM, 2000. - ISBN 978-0-89871-471-5 .
  • Joel N. Franklin. Teoría de la matriz . Publicaciones de Dover. — ISBN 978-0-486-41179-8 .
  • Gene H. Golub, Charles F. Van Loan. Cálculos Matriciales. — 3er. - Baltimore: Johns Hopkins University Press , 1996. - ISBN 978-0-8018-5414-9 .
    • Traducido por J. Golub, C. Van Lone. Cálculos matriciales. - Moscú: Mir, 1999. - ISBN 5-03-002406-9 .
  • Roger A. Horn, Charles R. Johnson. análisis matricial. - Prensa de la Universidad de Cambridge, 1985. - ISBN 978-0-521-38632-6 .
    • Traducción Horn R., Johnson C. Análisis matricial. - "Mir", 1989. - ISBN 978-5-458-26504-1 (YOYO Media).
  • Roger A. Horn, Charles R. Johnson. Temas en Análisis Matricial . - Prensa de la Universidad de Cambridge, 1991. - ISBN 978-0-521-46713-1 .
  • Erwin Kreyszig. Ingeniería Matemática Avanzada . — 3er. - Nueva York: Wiley , 1972. - ISBN 978-0-471-50728-4 .
  • Evar D. Nering. Álgebra Lineal y Teoría de Matrices. — 2do. — Nueva York: Wiley , 1970.
  • Strang G. Introducción al Álgebra Lineal. — 3er. - Wellesley-Cambridge Press, 1998. - ISBN 978-0-9614088-5-5 .

Enlaces