En álgebra lineal, se dice que una matriz cuadrada A es diagonalizable si es similar a una matriz diagonal , es decir, si existe una matriz P no singular tal que P −1 AP es una matriz diagonal. Si V es un espacio vectorial de dimensión finita , entonces se dice que una aplicación lineal T : V → V es diagonalizable si existe una base ordenada en V tal que T representada como una matriz diagonal. La diagonalización es el proceso de encontrar la matriz diagonal correspondiente para una matriz diagonalizable o mapeo lineal. [1] Una matriz cuadrada que no se puede diagonalizar se llama defectuosa .
Las matrices diagonalizables y las aplicaciones son interesantes porque las matrices diagonales son fáciles de trabajar: se conocen los valores propios y los vectores , la exponenciación se realiza elevando los elementos diagonales a una potencia y el determinante es el producto de los elementos diagonales. Desde un punto de vista geométrico, una matriz diagonalizable es un escalado no uniforme: en cada dirección, el estiramiento se produce en el caso general con un coeficiente diferente según el número de la diagonal.
El hecho fundamental sobre aplicaciones y matrices diagonalizables se expresa en las siguientes declaraciones.
Una matriz o aplicación lineal es diagonalizable sobre un campo F si y solo si el polinomio mínimo es un producto de factores lineales sobre el campo F. En otras palabras, una matriz es diagonalizable si y solo si todos los divisores del polinomio mínimo son lineales.
La siguiente condición (suficiente pero no necesaria) suele ser útil.
Sea A una matriz sobre F. Si A es diagonalizable, entonces cualquier potencia de A es diagonalizable. Si A es invertible, F es algebraicamente cerrado, A n es diagonalizable para algún n que no es múltiplo de la característica F , entonces A es diagonalizable.
Sobre C , casi cualquier matriz es diagonalizable. Más precisamente, el conjunto de matrices complejas n × n que no son diagonalizables sobre C , cuando se considera como un subconjunto n × n de C , tiene la medida de Lebesgue cero . También se puede decir que las matrices diagonalizables forman un subconjunto denso en el marco de la topología de Zariski : el complemento de este subconjunto se encuentra en el conjunto en el que se desvanece el discriminante del polinomio característico, es decir, en la hipersuperficie. Este no es el caso de R.
La descomposición de Jordan-Chevalley representa al operador como la suma de las partes diagonalizable y nilpotente . Por lo tanto, una matriz es diagonalizable si y solo si la parte nilpotente es cero. En otras palabras, una matriz es diagonalizable si cada bloque de la forma de Jordan no tiene una parte nilpotente.
Si la matriz A se puede diagonalizar, es decir,
después
Escribimos P como una matriz de bloques con vectores columna
entonces la ecuación anterior se puede reescribir como
Los vectores columna de P son los vectores propios derechos de A , los elementos diagonales correspondientes son los valores propios. La invertibilidad de P también implica que los vectores propios son linealmente independientes y forman una base en F n . Esta es una condición necesaria y suficiente para la diagonalizabilidad. Los vectores fila P −1 son los vectores propios izquierdos de A .
Si A es una matriz hermitiana , entonces se pueden elegir los vectores propios de A para que formen una base ortogonal en Cn . En estas condiciones, P será una matriz unitaria y P −1 es igual al conjugado hermitiano de P .
En la práctica, la diagonalización de matrices se realiza en una computadora. Hay una serie de algoritmos que permiten llevar a cabo este proceso.
Se dice que un conjunto de matrices es conjuntamente diagonalizable si existe una única matriz invertible P tal que P −1 AP es una matriz diagonal para cada A del conjunto. El siguiente teorema caracteriza matrices diagonalizables conjuntamente: un conjunto de matrices es un conjunto de matrices conmutables diagonalizables si y solo si es diagonalizable conjuntamente. [2]
El conjunto de todas las matrices n × n diagonalizables sobre C para n > 1 no es diagonalizable conjuntamente. Por ejemplo, matrices
son diagonalizables, pero no conjuntamente, ya que no conmutan.
Un conjunto consiste en conmutar matrices normales si y sólo si está conjuntamente diagonalizado por una matriz unitaria, es decir, existe una matriz unitaria U tal que U*AU es diagonal para cualquier matriz A del conjunto.
En general, la matriz de rotación no es diagonalizable sobre los números reales, pero todas las matrices de rotación son diagonalizables sobre el campo de los números complejos. Incluso si la matriz no es diagonalizable, es posible reducirla a la "mejor forma posible" y crear una matriz con las mismas propiedades, que contenga valores propios en la diagonal principal y unos o ceros en la diagonal superior. es decir. Forma normal de Jordan .
Algunas matrices no son diagonalizables sobre ningún campo, entre ellas se pueden especificar matrices nilpotentes distintas de cero . Esto sucede si la multiplicidad algebraica y geométrica del valor propio no coinciden. Considerar
Esta matriz no se puede diagonalizar: no existe una matriz U para la cual U −1 CU sea una matriz diagonal. C tiene un valor propio (cero) de multiplicidad algebraica 2 y multiplicidad geométrica 1.
Algunas matrices reales no se pueden diagonalizar sobre números reales. Considere la matriz
La matriz B no tiene valores propios reales, por lo que no existe una matriz Q real para la cual Q −1 BQ sea diagonal. Pero sobre el campo de los números complejos, podemos diagonalizar B . Si consideramos
entonces Q −1 BQ es diagonal.
Tenga en cuenta que los ejemplos anteriores muestran que la suma de matrices diagonalizables no siempre es diagonalizable.
Considere la matriz
Esta matriz tiene valores propios
A es una matriz de 3x3 con 3 valores propios distintos; por lo tanto, es diagonalizable. Tenga en cuenta que si una matriz n × n tiene exactamente n valores propios distintos, entonces es diagonalizable.
Los autovalores aparecerán en la forma diagonalizada A , por lo que al encontrar los autovalores, la matriz A se diagonaliza. Los vectores propios se pueden utilizar para diagonalizar A.
Los vectores propios de A son
Se puede comprobar que
Sea P una matriz en la que los vectores propios dados son las columnas.
Tenga en cuenta que no hay un orden distinguido para las columnas de P ; cambiar el orden de los vectores propios en P solo cambiará el orden de los valores propios en la forma diagonal A. [3]
La matriz P diagonaliza A , lo cual es fácil de ver:
Esto se deduce del hecho de que para cualquier base estándar ,
donde hemos aprovechado lo que es la columna k-ésima de , por lo tanto . Tenga en cuenta que los valores propios aparecieron en la matriz diagonal.
La diagonalización se puede utilizar para calcular eficientemente las potencias de una matriz A si la matriz es diagonalizable. consigamos eso
donde es una matriz diagonal. Entonces por la asociatividad del producto de matrices
El último producto es fácil de calcular porque contiene las potencias de la matriz diagonal. Este enfoque se puede generalizar al exponente matricial y otras funciones matriciales , ya que se pueden representar como series de potencias.
Considere la siguiente matriz:
Calcular diferentes potencias de M conduce a un patrón interesante:
Este fenómeno se puede explicar utilizando la diagonalización de M . Necesitamos una base R 2 que consista en vectores propios M . Una de las bases es
donde e i denota la base estándar de R n . El cambio inverso de la base viene dado por las expresiones
Los cálculos muestran que
Por lo tanto , a y b son valores propios correspondientes a u y v . Por la linealidad del producto de matrices, obtenemos
Volviendo a la base estándar, obtenemos que
La forma matricial de las relaciones descritas anteriormente tiene la forma
lo que explica el patrón antes mencionado.
En mecánica cuántica y química cuántica , la diagonalización de matrices es uno de los procedimientos más utilizados en los cálculos. La razón principal es que la ecuación de Schrödinger independiente del tiempo es una ecuación de valor propio y, en casi todas las aplicaciones físicas, en un espacio de dimensión infinita ( Hilbert ). En enfoques aproximados, el espacio de Hilbert se reemplaza por un espacio de dimensión finita, después de lo cual la ecuación de Schrödinger se puede reformular como un problema de encontrar los valores propios de una matriz simétrica real (o hermitiana compleja). Este enfoque se basa en el principio variacional .