Una matriz inversa es tal matriz , cuando se multiplica por la matriz original , se obtiene la matriz identidad :
La matriz inversa se puede definir como:
donde es la matriz asociada correspondiente , es el determinante de la matriz .Esta definición implica un criterio de invertibilidad: una matriz es invertible si y solo si es no degenerada , es decir, su determinante no es igual a cero. Para matrices no cuadradas y matrices degeneradas no existen matrices inversas. Sin embargo, es posible generalizar esta noción e introducir matrices pseudoinversas , que son similares a las inversas en muchas propiedades.
Sean matrices cuadradas no degeneradas. Después:
Si la matriz es invertible, entonces para encontrar la inversa de la matriz, puede usar uno de los siguientes métodos:
Tomemos dos matrices: ella misma y la matriz identidad . Llevemos la matriz a la unidad uno usando el método de Gauss-Jordan , aplicando transformaciones en filas (también puedes aplicar transformaciones en columnas). Después de aplicar cada operación a la primera matriz, aplique la misma operación a la segunda. Cuando se completa la reducción de la primera matriz a la forma de identidad, la segunda matriz será igual a .
Al usar el método de Gauss, la primera matriz se multiplicará desde la izquierda por una de las matrices elementales ( una transvección o una matriz diagonal con unos en la diagonal principal excepto en una posición):
La segunda matriz después de aplicar todas las operaciones será igual a , es decir, será la deseada. La complejidad del algoritmo es .
Con la ayuda de la matriz de complementos algebraicosLa matriz inversa a matrix , se puede representar como:
donde es la matriz adjunta (una matriz compuesta de complementos algebraicos para los elementos correspondientes de la matriz transpuesta).La complejidad del algoritmo depende de la complejidad del algoritmo de cálculo del determinante y es igual a .
Usando la descomposición LU o LUPLa ecuación matricial de la matriz inversa se puede considerar como un conjunto de sistemas de la forma . Denote la -ésima columna de la matriz por ; entonces , ya que la -ésima columna de la matriz es el vector unitario . En otras palabras, encontrar la matriz inversa se reduce a resolver ecuaciones con una matriz y diferentes lados derechos. La solución de estas ecuaciones se puede simplificar utilizando la descomposición LU o LUP de la matriz . Después de realizar la descomposición LUP en el tiempo , cada ecuación necesita tiempo para resolverse , por lo que este algoritmo también lleva tiempo [1] .
La matriz inversa a una matriz no singular dada también se puede calcular directamente usando las matrices obtenidas de la descomposición.
El resultado de la descomposición LUP de la matriz es la igualdad . Deje , . Entonces, a partir de las propiedades de la matriz inversa, podemos escribir: . Si multiplicamos esta igualdad por y entonces podemos obtener dos igualdades de la forma y . La primera de estas igualdades es un sistema de ecuaciones lineales, para el cual se conocen los lados derechos (a partir de las propiedades de las matrices triangulares). El segundo también representa un sistema de ecuaciones lineales, para el cual se conocen los lados derechos (también por las propiedades de las matrices triangulares). Juntos forman un sistema de igualdades. Con su ayuda, puede determinar recursivamente todos los elementos de la matriz . Luego de la igualdad obtenemos la igualdad .
En el caso de utilizar la descomposición LU ( ), no se requiere permutación de las columnas de la matriz , pero la solución puede divergir aunque la matriz sea no singular.
La complejidad de ambos algoritmos es .
La matriz se puede calcular con precisión arbitraria como resultado del siguiente proceso iterativo , denominado método de Schultz y que es una generalización del método clásico de Newton :
La sucesión de matrices converge a como . También existe el llamado método de Schulz generalizado, que se describe mediante las siguientes relaciones de recurrencia [2] :
Elección de la aproximación inicialEl problema de elegir la aproximación inicial en los procesos de inversión iterativa de matrices aquí considerados no permite tratarlos como métodos universales independientes que compiten con los métodos de inversión directa basados, por ejemplo, en la descomposición de matrices. Existen algunas recomendaciones sobre la elección de , que aseguran el cumplimiento de la condición ( el radio espectral de la matriz es menor que la unidad), que es necesaria y suficiente para la convergencia del proceso iterativo. Sin embargo, en este caso, en primer lugar, se requiere conocer el límite superior para el espectro de una matriz o matriz invertible (es decir, si es una matriz definida positiva simétrica y , entonces podemos tomar , donde ; si es una matriz no singular arbitraria y , luego asumimos , donde también ; podemos , por supuesto, simplificar la situación y, usando el hecho de que , poner ). En segundo lugar, con tal especificación de la matriz inicial, no hay garantía de que sea pequeña (incluso puede llegar a ser ), y no se detectará inmediatamente una tasa de convergencia de alto orden.
Para el método de Newton, se puede elegir como aproximación inicial , donde el superíndice denota la conjugación hermítica , y son las normas de matriz correspondientes . Este se calcula en pocas operaciones, donde es el orden de la matriz, y asegura la convergencia del algoritmo [3] .
La inversión de una matriz de 2 × 2 solo es posible si .
Vectores y matrices | |||||||||
---|---|---|---|---|---|---|---|---|---|
Vectores |
| ||||||||
matrices |
| ||||||||
Otro |