Descomposición de matrices
La descomposición de matrices es una representación de una matriz como producto de matrices que tienen algunas propiedades específicas (por ejemplo, ortogonalidad , simetría , diagonalidad ). Cada clase de descomposición de matrices tiene su propia área de aplicación; en particular, muchos algoritmos de álgebra lineal computacional eficientes se basan en la construcción de las expansiones de matriz correspondientes.

Expansiones para resolver SLAE
Descomposición LU
- Restricciones: la matriz es cuadrada y no degenerada , y todos sus principales principales menores son distintos de cero [1] .

- Tipo de descomposición: , donde es la matriz triangular inferior , y es la matriz triangular superior . Para expansiones inequívocas, generalmente se requiere adicionalmente que la matriz sea unitriangular , es decir, una matriz triangular con entradas diagonales iguales a uno (a veces, en su lugar, se impone el requisito de unitrianidad en la matriz ) [2] .





- Descomposiciones similares: LDU -descomposición en la forma , donde es la matriz unitriangular inferior, es la matriz unitriangular superior y es diagonal




- Expansiones similares : LUP -descomposición en la forma _ _ Esta es una generalización de la descomposición LU al caso de matrices arbitrarias no degeneradas.




- Existencia: existe una descomposición LUP para cualquier matriz cuadrada . Cuando la matriz se reduce a la matriz identidad , la descomposición LUP se reduce a la descomposición LU .


- Las descomposiciones LUP y LU se utilizan para resolver SLAE de dimensión . Los métodos correspondientes son variantes de la forma matricial del método gaussiano . La matriz caracteriza el efecto acumulativo de las permutaciones de filas en el método gaussiano.



Factorización de rangos
- Restricciones: matriz arbitraria de tamaño y rango .


Descomposición de Cholesky
- Restricciones: matriz definida positiva simétrica [3] .

- Tipo de descomposición: (o, equivalentemente, ), donde la matriz es triangular superior (respectivamente, la matriz es triangular inferior ) [3] .




- Descomposiciones similares: una alternativa es la descomposición de Cholesky modificada ( LDL -decomposition ), que evita la extracción de raíces (en la que la matriz es unitriangular inferior , y es diagonal ).


- La descomposición de Cholesky es única.
- La descomposición de Cholesky también es aplicable si la matriz es hermítica y definida positiva .
- Se aplica la descomposición de Cholesky para resolver la SLAE si la matriz tiene las propiedades adecuadas. Este método de solución, en comparación con el método de descomposición LU , es ciertamente numéricamente estable y requiere la mitad de operaciones aritméticas [4] .


Descomposición QR
- Restricciones: matriz arbitraria de tamaño .


- Tipo de descomposición: , donde es una matriz ortogonal de tamaño y es una matriz triangular superior de tamaño .





- Descomposiciones similares: Hay descomposiciones QL- , RQ- y LQ- análogas.
- Debido a la ortogonalidad de la matriz (lo que significa que la matriz inversa coincide con la matriz traspuesta ), el sistema es equivalente a un sistema con matriz triangular, cuya solución no es difícil.





- Una de las formas de obtener una matriz es el proceso de Gram-Schmidt , y luego .


- La construcción de una descomposición QR es la base del algoritmo QR , que es uno de los métodos para buscar vectores propios y valores de matriz.
- Los algoritmos para resolver SLAE basados en la descomposición QR funcionan casi por igual tanto para sistemas singulares como bien acondicionados [5] .
Expansión de interpolación
- Restricciones: matriz arbitraria de dimensión y rango .


- Tipo de descomposición: , donde es un subconjunto de índices ; la matriz consta de las columnas correspondientes de la matriz original; es una matriz cuyos elementos son módulo no mayor a 2 (además, contiene una submatriz unitaria de dimensión ). Se puede obtener una descomposición similar en filas.









Expansiones de valor propio o valor singular
Descomposición espectral
- Restricciones: una matriz cuadrada diagonalizable , es decir, que tiene un conjunto de vectores propios diferentes (los valores propios no necesitan ser diferentes).


- Tipo de desarrollo: , donde se forma la diagonal a partir de los valores propios , y las columnas son los vectores propios correspondientes .



- Existencia: una matriz de dimensión siempre tiene valores propios (multiplicidad de conteo) que se pueden ordenar (no de una manera única) para construir una matriz de dimensión diagonal y una matriz correspondiente de columnas distintas de cero que satisfacen la igualdad . Si los vectores propios son diferentes, entonces la matriz tiene una inversa, lo que dará la expansión deseada [6] .








- Siempre es posible normalizar los vectores propios para que tengan una longitud de 1. Si es una matriz simétrica real , entonces siempre es invertible y normalizable. En este caso, la matriz resulta ser ortogonal, ya que los vectores propios son ortogonales entre sí. Por lo tanto, la expansión deseada (que siempre existe en el caso bajo consideración) se puede escribir como .




- Una condición necesaria y suficiente para la diagonalizabilidad es la coincidencia de la multiplicidad geométrica y algebraica de cada valor propio. En particular, la existencia de valores propios distintos es una condición suficiente (pero no necesaria).

- La descomposición espectral es útil para comprender soluciones a sistemas de ecuaciones diferenciales ordinarias lineales o ecuaciones en diferencias . Por ejemplo, una ecuación en diferencias con una condición inicial tiene una solución , que se puede escribir de manera diferente como (en el caso de ). Elevar una matriz diagonal a una potencia se reducirá a elevar cada elemento de la diagonal a una potencia , que es incomparablemente más simple que (a menos, por supuesto, que este último tenga inicialmente una forma diagonal).









Jordan forma normal
- Restricciones: matriz cuadrada .

- Tipo de expansión: , donde es la matriz de Jordan, y es la matriz de transición a una nueva base.



- La forma normal de Jordan es una generalización de la forma diagonal de la matriz de valores propios al caso donde la multiplicidad geométrica de uno o más valores propios es menor que la multiplicidad algebraica .

Descomposición de Schur
- Restricciones: matriz cuadrada .

- Hay dos versiones de descomposición: para el caso de una matriz real y para el caso de una matriz compleja. Este último siempre tiene una expansión Schur compleja.
- Tipo de descomposición (caso real): (todas las matrices en ambas partes de la igualdad se componen de valores estrictamente reales). En este caso, es una matriz ortogonal , y es una matriz cuasi -triangular . Este último se llama la forma real de Schur . Los bloques en la diagonal son de tamaño (en cuyo caso son valores propios reales) o (formados por un par de valores propios complejos conjugados ).






- Tipo de descomposición (caso complejo): , donde es unitaria , es su conjugado hermitiano , y es una matriz triangular superior, llamada forma compleja de Schur , que contiene autovalores en la diagonal.





QZ-descomposición
- Restricciones: matrices cuadradas y .


- Hay dos versiones de descomposición: compleja y real.
- Tipo de expansión (caso complejo): , donde y son matrices unitarias , es hermítica conjugada a , y son matrices triangulares superiores .







- En la descomposición especificada, la proporción de elementos diagonales en y correspondientes a , son valores propios generalizados, que son la solución al problema generalizado de encontrar valores propios (donde es un escalar desconocido y es un vector distinto de cero desconocido).






- Tipo de descomposición (caso real): , donde todas las matrices consisten estrictamente en valores reales. son matrices ortogonales, y son matrices cuasi -triangulares , que consisten en bloques o (similares a los bloques correspondientes en la descomposición de Schur).





Descomposición en valores singulares
- Restricciones: matriz de tamaño arbitrario [7] .


- Tipo de descomposición: , donde es una matriz diagonal no negativa , son matrices unitarias y es conjugada hermítica . En el caso real , y , como antes, la matriz diagonal no negativa , son ortogonales [7] [8] .







- Los elementos en la diagonal de una matriz se denominan valores singulares de una matriz y se denotan El número de valores singulares distintos de cero de una matriz es igual al rango de esta matriz [9] .




- La descomposición singular, como la descomposición espectral, incluye encontrar la base de los subespacios, la acción del operador sobre cuyos elementos es equivalente a la multiplicación por un escalar (es decir , ), pero la descomposición en valor singular es un método más general, ya que la matriz no tiene ser cuadrado.



Otras expansiones
Expansión polar
- Restricciones: matriz cuadrada compleja [10] .

- Tipo de expansión (caso complejo): , donde es una matriz hermitiana con menores principales no negativos, y es una matriz unitaria [10] [11] .



- Tipo de desarrollo (caso real): , donde es una matriz simétrica con menores principales no negativos, y es una matriz ortogonal [12] [13] .



- Para una matriz no degenerada, la descomposición polar es única, y para una matriz degenerada, solo el factor está definido de manera única [10] .

- La descomposición polar de una matriz en el caso complejo es análoga a la representación de un número complejo arbitrario en la forma [14] .


Frobenius forma normal
Notas
- ↑ Ikramov, 1991 , pág. veinte.
- ↑ Voevodin y Kuznetsov, 1984 , pág. 75-76.
- ↑ 1 2 Voevodin y Kuznetsov, 1984 , p. 176.
- ↑ William H. Press, Saul A. Teukolsky, William T. Vetterling, Brian P. Flannery. . 2.9 Descomposición de Cholesky // Recetas numéricas en C. 2ª edición. —Cambridge: Prensa de la Universidad de Cambridge. - ISBN 0-521-43108-5 .
- ↑ Descomposiciones QR y SVD: SLAE "malos" . Consultado el 17 de noviembre de 2016. Archivado desde el original el 22 de junio de 2017. (indefinido)
- ↑ Meyer, 2000 , pág. 514.
- ↑ 1 2 Ikramov, 1991 , p. 21
- ↑ Voevodin y Kuznetsov, 1984 , pág. 80.
- ↑ Forsyth J., Malcolm M., Moler K. . Métodos mecánicos de cálculos matemáticos. — M .: Mir , 1980. — 280 p. — Art. 214, 225.
- ↑ 1 2 3 Voevodin y Kuznetsov, 1984 , p. 78.
- ↑ Gantmakher, 1988 , pág. 234-236.
- ↑ Voevodin y Kuznetsov, 1984 , pág. 79.
- ↑ Gantmakher, 1988 , pág. 244.
- ↑ Gantmakher, 1988 , pág. 236.
Literatura
- Voevodin V.V. , Kuznetsov Yu.A. Matrices y cálculos. — M .: Nauka , 1984. — 320 p.
- Gantmakher F.R. Teoría de la matriz. 4ª ed. — M .: Nauka , 1988. — 552 p. — ISBN 5-02-013722-7 .
- Ikramov H. D. . Problema de valores propios asimétricos. Métodos numéricos. — M .: Nauka , 1991. — 240 p. — ISBN 5-02-014462-2 .
- Meyer, Carl D. Análisis Matricial y Álgebra Lineal Aplicada . - Filadelfia: SIAM , 2000. - xii + 718 p. — ISBN 0-89871-454-0 .
Vectores y matrices |
---|
Vectores | Conceptos básicos |
|
---|
Tipos de vectores |
|
---|
Operaciones sobre vectores |
|
---|
Tipos de espacio |
|
---|
|
---|
matrices | |
---|
Otro |
|
---|