Matriz cuadrada

En matemáticas , una matriz cuadrada  es una matriz en la que el número de filas es igual al número de columnas, y a este número se le llama orden de la matriz. Se pueden sumar y multiplicar cualesquiera dos matrices cuadradas del mismo orden.

Las matrices cuadradas se utilizan a menudo para representar asignaciones lineales simples  , como deformación o rotación . Por ejemplo, si R  es una matriz cuadrada que representa una rotación ( matriz de rotación ) y v  es un vector columna que define la posición de un punto en el espacio, el producto Rv da otro vector que define la posición del punto después de la rotación. Si v  es un vector fila , se puede obtener la misma transformación usando vRT , donde R T  es la matriz transpuesta a R.

Diagonal principal

Los elementos a ii ( i = 1, …, n ) forman la diagonal principal de una matriz cuadrada. Estos elementos se encuentran en una línea recta imaginaria que va desde la esquina superior izquierda a la esquina inferior derecha de la matriz [1] . Por ejemplo, la diagonal principal de la matriz 4x4 de la figura contiene los elementos a 11 = 9, a 22 = 11, a 33 = 4, a 44 = 10.

La diagonal de una matriz cuadrada que pasa por las esquinas inferior izquierda y superior derecha se llama lado .

Tipos especiales

Nombre Ejemplo con n = 3
Matriz diagonal
Matriz triangular inferior
Matriz triangular superior

Matrices diagonales y triangulares

Si todos los elementos fuera de la diagonal principal son cero, se dice que A es diagonal . Si todos los elementos arriba (abajo) de la diagonal principal son cero, A se llama matriz triangular inferior (superior) . Una matriz triangular con todas las entradas diagonales iguales a 1 se llama unitriangular [2] [3] .

Matriz de identidad

La matriz identidad E n de tamaño n  es una matriz n × n en la que todos los elementos de la diagonal principal son iguales a 1, y los elementos restantes son iguales a 0 (a menudo se usa la letra I en lugar de la letra E [4] ) [1] . De este modo,

La multiplicación por la matriz identidad deja la matriz sin cambios:

{{{1}}} para cualquier matriz A de n × n .

Matrices simétricas y antisimétricas

Una matriz cuadrada A que coincide con su traspuesta , es decir, A = A T , se llama simétrica . Si A difiere de la matriz transpuesta en signo, es decir, A = − A T , entonces A se llama antisimétrica (o sesgadamente simétrica ) [4] [5] . En el caso de matrices complejas, el concepto de simetría se reemplaza a menudo por el concepto de autoadjunto , y una matriz que satisface la igualdad A ∗ = A se llama hermitiana (o autoadjunta ); aquí, el asterisco denota la operación de conjugación hermitiana , cuyo significado es reemplazar cada elemento de la matriz original con un número conjugado complejo , seguido de la transposición de la matriz resultante [6] [7] .

De acuerdo con el teorema espectral , para matrices simétricas reales y matrices hermitianas complejas, existen bases que consisten en vectores propios ; por lo tanto, cualquier vector espacial se puede representar como una combinación lineal de vectores propios. En ambos casos, todos los autovalores son reales [8] . Este teorema se puede extender al caso de dimensión infinita, cuando las matrices tienen infinitas filas y columnas.

Matrices invertibles

Se dice que una matriz cuadrada A es invertible o no singular si existe una matriz B tal que

AB = BA = mi [9] [10] .

Si la matriz B existe, es única y se llama la inversa de A y se escribe como A −1 .

Matriz definida

positivo definitivo indefinido
Q ( x , y ) = 1/4 x 2 + 1/4 y 2 Q ( x , y ) = 1/4 x 2 − 1/4 y 2

Puntos que satisfacen la ecuación Q ( x , y ) = 1
( Elipse ).

Puntos que satisfacen la ecuación Q ( x , y ) = 1
( hipérbola ).

Una matriz simétrica n × n se llama definida positiva (respectivamente, definida negativa o indefinida) si para todos los vectores distintos de cero x ∈ R n la forma cuadrática correspondiente

Q ( x ) = x T Ax

toma solo valores positivos (respectivamente, valores negativos o ambos). Si la forma cuadrática toma solo valores no negativos (respectivamente, solo no positivos), se dice que la matriz simétrica es semidefinida positiva (respectivamente, semidefinida negativa). Una matriz será indefinida si no es semidefinida ni positiva ni negativa [11] .

Una matriz simétrica es definida positiva si y solo si todos sus autovalores son positivos [12] . La tabla de la derecha muestra dos casos posibles para matrices de 2×2.

Si usamos dos vectores diferentes, obtenemos una forma bilineal asociada con A :

segundo UN ( X , y ) = X T Ay [13] .

Matriz ortogonal

Una matriz ortogonal es una matriz  cuadrada con elementos reales cuyas columnas y filas son vectores unitarios ortogonales (es decir, ortonormales). También puede definir una matriz ortogonal como una matriz cuya inversa es igual a la transpuesta [7] :

de donde sigue

,

donde E  es la matriz identidad .

Una matriz ortogonal A es siempre invertible ( A −1 = A T ), unitaria ( A −1 = A *) y normal ( A * A = AA *). El determinante de cualquier matriz ortogonal es +1 o −1 [14] . La multiplicación por una matriz ortogonal especifica tal transformación lineal del espacio aritmético , que en el caso de una matriz con determinante +1 es una rotación simple , y en el caso de una matriz con determinante −1, es una simple reflexión o una superposición de reflexión y rotación.

El análogo complejo de una matriz ortogonal es la matriz unitaria .

Operaciones

Siguiente

La traza de una matriz cuadrada A (tr( A )) es la suma de los elementos de la diagonal principal. Si bien la multiplicación de matrices generalmente no es conmutativa, la traza de un producto de dos matrices no depende del orden de los factores:

tr( AB ) = tr( BA ).

Esto se sigue directamente de la definición de un producto de matriz:

Además, la traza de una matriz es igual a la traza de su transpuesta, es decir

tr( UN ) = tr( UN T ).

Determinante

Determinante det( A ) o | un | La matriz cuadrada A  es un número que define algunas propiedades de la matriz. Una matriz es invertible si y solo si su determinante es distinto de cero. El valor absoluto del determinante es igual al área (en R 2 ) o volumen (en R 3 ) de la imagen del cuadrado (o cubo) unidad, mientras que el signo del determinante corresponde a la orientación del mapeo correspondiente - el determinante es positivo si y solo si se conserva la orientación.

El determinante de matrices de 2×2 se calcula mediante la fórmula

El determinante de la matriz 3×3 utiliza 6 productos ( regla de Sarrus ). La fórmula más larga de Leibniz generaliza estas dos fórmulas a todas las dimensiones [15] .

El determinante del producto de matrices es igual al producto de los determinantes de los factores:

det( AB ) = det( A ) • det( B ) [16] .

Agregar cualquier fila con un coeficiente a otra fila o cualquier columna con un coeficiente a otra columna no cambia el determinante. El intercambio de lugares de dos filas o columnas conduce a un cambio en el signo del determinante [17] . Usando estas operaciones, cualquier matriz puede reducirse a una matriz triangular inferior (o superior), y para tales matrices el determinante es igual al producto de los elementos de la diagonal principal, lo que da una forma de calcular el determinante de cualquier matriz. Finalmente, el teorema de Laplace expresa el determinante en términos de menores , es decir, determinantes de matrices menores [18] . Este teorema permite el cálculo recursivo de determinantes (a partir del determinante de una matriz 1x1, o incluso del determinante de una matriz 0x0, que es igual a 1), lo que puede considerarse equivalente a la fórmula de Leibniz. Los determinantes se pueden utilizar para resolver sistemas lineales mediante el método de Cramer [19] .

Valores propios y vectores propios

Un número λ y un vector v distinto de cero que satisfacen la ecuación

Av = λ v ,

se denominan valor propio y vector propio de la matriz A , respectivamente [20] . Un número λ es un valor propio n × n de una matriz A si y solo si A −λ E no tiene inversa, lo que equivale a

[veinte]

El polinomio p A en la incógnita X obtenido como determinante det( X E − A ) se denomina polinomio característico de la matriz A . Es un polinomio normalizado de grado n . Así, la ecuación p A (λ) = 0 tiene como máximo n soluciones diferentes, es decir, autovalores matriciales [21] . Estos valores pueden ser complejos incluso si todos los elementos de la matriz A son reales. Según el teorema de Hamilton-Cayley , p A ( A ) = 0 , es decir, cuando se sustituye la propia matriz en el polinomio característico, se obtiene una matriz cero [22] .

Notas

  1. 1 2 Voevodin y Kuznetsov, 1984 , p. 26
  2. Voevodin y Kuznetsov, 1984 , pág. 26-27.
  3. Ikramov, 1991 , pág. 9-10.
  4. 1 2 Pobedrya, 1986 , pág. 41.
  5. Voevodin y Kuznetsov, 1984 , pág. 74.
  6. Voevodin y Kuznetsov, 1984 , pág. 73.
  7. 1 2 Ikramov, 1991 , p. diez.
  8. Horn and Johnson, 1989 , Teorema 2.5.6, p. 129-130.
  9. Brown, 1991 , Definición I.2.28, p. 21
  10. Brown, 1991 , Teorema I.5.13, p. 61.
  11. Horn y Johnson, 1989 , 7.1. Definiciones y propiedades, pág. 471-474.
  12. Horn and Johnson, 1989 , Teorema 7.2.1, p. 477-478.
  13. Horn and Johnson, 1989 , Ejemplo 4.0.6, p. 202.
  14. Voevodin y Kuznetsov, 1984 , pág. 71-72.
  15. Brown, 1991 , Definición III.2.1, p. 167.
  16. Brown, 1991 , Teorema III.2.12, p. 173.
  17. Brown, 1991 , Corolario III.2.16, p. 174.
  18. Mirsky, 1990 , Teorema 1.4.1, p. 14-15.
  19. Brown, 1991 , Teorema III.3.18, p. 189.
  20. 1 2 Bellman, 1976 , pág. 56.
  21. Brown, 1991 , Corolario III.4.10, p. 198.
  22. Gantmakher, 1988 , pág. 87.

Enlaces