Determinante

El determinante ( determinante ) en álgebra lineal es un valor escalar que caracteriza la "expansión" o "compresión" orientada de un espacio euclidiano multidimensional después de la transformación matricial; solo tiene sentido para matrices cuadradas . La notación estándar para el determinante de una matriz es , , [1] .

El determinante de una matriz de dimensión cuadrada definida sobre un anillo conmutativo es un elemento del anillo . Este valor determina muchas propiedades de la matriz , en particular, la matriz es invertible si y solo si su determinante es un elemento invertible del anillo . En el caso de que  sea un campo , el determinante de la matriz es igual a cero si y solo si el rango de la matriz es menor que , es decir, cuando los sistemas de filas y columnas de la matriz son linealmente dependientes .

Historia

La teoría de los determinantes surgió en relación con el problema de resolver sistemas de ecuaciones lineales .

Los autores del antiguo libro de texto chino " Matemáticas en nueve libros " [2] se acercaron al concepto de determinante .

En Europa, los determinantes de las matrices 2×2 se encuentran en Cardano en el siglo XVI. Para dimensiones superiores, la definición de determinante la dio Leibniz en 1693. La primera publicación es de Kramer . La teoría de los determinantes fue creada por Vandermonde , Laplace , Cauchy y Jacobi . El término "determinante" en su significado moderno fue introducido por O. Cauchy (1815), aunque antes (1801) K. Gauss llamó "determinante" al discriminante de una forma cuadrática.

El matemático japonés Seki Takakazu introdujo los determinantes de forma independiente en 1683 [3] .

Definiciones

A través de permutaciones

Para una matriz cuadrada de tamaño, su determinante se calcula mediante la fórmula:

,

donde la suma se lleva a cabo sobre todas las permutaciones  de números y  denota el número de inversiones en la permutación .

Así, el determinante incluye términos, que también se denominan "términos del determinante".

Fórmula equivalente:

,

donde el coeficiente - el símbolo de Levi-Civita - es igual a:

0 si no todos los índices son distintos, 1 si todos los índices son diferentes y la sustitución es par, −1 si todos los índices son diferentes y la sustitución es impar.

Construcción axiomática (definición basada en propiedades)

El concepto de determinante se puede introducir sobre la base de sus propiedades. Es decir, el determinante de una matriz real es una función que tiene las siguientes tres propiedades [4] :

  1.  es una función simétrica oblicua de las filas (columnas) de la matriz .
  2.  es una función multilineal de filas (columnas) de matriz .
  3. , donde es la matriz  identidad .

El valor del determinante matricial

Para una matriz de primer orden, el valor del determinante es igual al único elemento de esta matriz:

Matrices 2 x 2

Para una matriz , el determinante se calcula como:

Esta matriz A puede verse como una matriz de mapeo lineal que transforma el cuadrado unitario en un paralelogramo con vértices (0, 0) , ( a , b ) , ( a + c , b + d ) , y ( c , d ) .

El valor absoluto del determinante es igual al área de este paralelogramo y, por lo tanto, refleja el factor por el cual se escalan las áreas en la transformación A.

El valor del determinante con signo ( el área orientada del paralelogramo), además del factor de escala, también indica si la transformación A realiza una reflexión.

Matrices 3 x 3

El determinante de la matriz se puede calcular mediante la fórmula:

Para un cálculo más conveniente del determinante de tercer orden, puede usar la regla de Sarrus o la regla del triángulo.

El determinante de una matriz compuesta de vectores es igual a su producto mixto en el sistema de coordenadas cartesiano derecho y, de manera similar al caso bidimensional, es un volumen orientado de un paralelepípedo atravesado por .

Matrices N × N

En general, para matrices de órdenes superiores (por encima de 2) , el determinante se puede calcular aplicando la siguiente fórmula recursiva:

, donde  es un menor adicional al elemento . Esta fórmula se llama expansión de filas .

Es fácil probar que el determinante de la matriz no cambia durante la transposición (es decir, una expansión similar en la primera columna también es válida, es decir, da el mismo resultado que la expansión en la primera fila):

Prueba

deja _

Probemos eso por inducción. Se puede ver que esto es cierto para la matriz:

Supongamos que para la matriz de orden - cierto.

Una expansión similar para cualquier fila (columna) también es válida:

Prueba

deja _

Probemos eso por inducción. Se puede ver que esto es cierto para la matriz:

Supongamos que para la matriz de orden - cierto.

Recolectemos los coeficientes para :

Recolectemos los coeficientes para :

La generalización de las fórmulas anteriores es la expansión del determinante según Laplace ( teorema de Laplace ), que hace posible calcular el determinante para cualquier fila (columna):

Métodos de cálculo alternativos

.

Propiedades básicas de los determinantes

Las siguientes propiedades reflejan los principales resultados de la teoría de los determinantes, cuya aplicación va mucho más allá de los límites de esta teoría:

  1. (El determinante de la matriz identidad es 1);
  2. (El determinante es una función de potencia homogénea en el espacio de matrices de tamaño );
  3. (El determinante de una matriz no cambia cuando se transpone);
  4. (El determinante del producto de matrices es igual al producto de sus determinantes, y son matrices cuadradas del mismo orden);
  5. , y la matriz es invertible si y solo si se invierte su determinante ;
  6. Hay una solución distinta de cero para la ecuación si y solo si (o debe ser un divisor de cero no trivial si no es un anillo integral).

Determinante en función de las filas (columnas) de la matriz

Al estudiar la teoría de los determinantes, es útil tener en cuenta que esta teoría se basa en la técnica de manipulación de filas y columnas de matrices desarrollada por K.F. Gaussiana (Transformaciones gaussianas). La esencia de estas transformaciones se reduce a operaciones lineales sobre filas (columnas) y su permutación. Estas transformaciones se reflejan en el determinante de una manera bastante sencilla, y al estudiarlas conviene "particionar" la matriz original en filas (o columnas) y considerar el determinante como una función definida sobre conjuntos de filas (columnas). Además, las letras denotan las filas (columnas) de la matriz .

1. El determinante es una función multilineal de filas (columnas) de una matriz. La multilinealidad significa que la función es lineal en cada argumento con valores fijos de los argumentos restantes: 2. El determinante es una función asimétrica de las filas (columnas) de la matriz, es decir, cuando se intercambian dos filas (columnas) de la matriz, su determinante se multiplica por −1: 3. Si dos filas (columnas) de una matriz son iguales, entonces su determinante es igual a cero:

Comentario. Las propiedades 1-3 son las principales propiedades del determinante en función de las filas (columnas), se prueban fácilmente directamente a partir de la definición. La propiedad 2 (simetría sesgada) es una consecuencia lógica de las propiedades 1 y 3. La propiedad 3 es una consecuencia lógica de la propiedad 2 si el elemento 2 (es decir, 1 + 1) en el anillo no coincide con cero y no es un divisor de cero. Las propiedades 1 y 3 también implican las siguientes propiedades:

4. El factor común de los elementos de cualquier fila (columna) del determinante se puede sacar del signo del determinante (consecuencia de la propiedad 1). 5. Si al menos una fila (columna) de la matriz es cero, entonces el determinante es igual a cero (consecuencia de la propiedad 4). 6. Si dos (o varias) filas (columnas) de una matriz son linealmente dependientes, entonces su determinante es igual a cero (consecuencia de las propiedades 1 y 3). 7. Al agregar a cualquier fila (columna) una combinación lineal de otras filas (columnas), el determinante no cambia (consecuencia de las propiedades 1 y 6).

Un hecho de fundamental importancia es la universalidad del determinante como una función multilineal oblicuamente simétrica de rango completo, cuyos argumentos son elementos de un espacio vectorial de dimensión finita (o módulo de base finita). El seguimiento

Teorema. Sea un módulo libre de rango ( -espacio vectorial dimensional sobre , si es un campo). Sea una función de -valor con propiedades 1-3. Entonces, al elegir la base del espacio , existe una constante tal que para todos los valores la igualdad es cierta: ,

donde es una columna de coordenadas del vector con respecto a la base .

Prueba

Expandamos los vectores según la base : . Entonces les corresponderán las siguientes columnas: .

Debido a la multilinealidad de la función

En virtud de la propiedad 3, si hay índices coincidentes entre ellos, entonces

.

De lo contrario, debido a la simetría sesgada (propiedad 2), obtenemos:

.

Así , donde .

Una de las consecuencias más importantes de la universalidad del determinante es el siguiente teorema sobre la multiplicatividad del determinante.

Teorema. Sea una matriz de tamaño . Entonces para cualquier matriz de tamaño . Prueba

Considere una forma multilineal sesgada simétrica en el espacio columna . Según el teorema probado, esta forma es igual a , donde .

Volumen determinante y orientado

Sean tres vectores en el espacio . Generan un paralelepípedo cuyos vértices se encuentran en puntos con radios vectores . Esta caja puede degenerar si los vectores son coplanares (están en el mismo plano, son linealmente dependientes).

La función de volumen orientado se define como el volumen de la caja generado por estos vectores, y se toma con signo "+" si el triple de vectores está orientado positivamente, y con signo "-" si está orientado negativamente. La función es multilineal y asimétrica. La propiedad 3 obviamente se cumple. Para probar la multilinealidad de esta función, basta probar su linealidad con respecto al vector . Si los vectores son linealmente dependientes, el valor será cero independientemente del vector y, por lo tanto, linealmente dependiente de él. Si los vectores son linealmente independientes, se denota por el vector de la unidad normal al plano de vectores , tal que . Entonces el volumen orientado del paralelepípedo es igual al producto del área de la base, construida sobre vectores e independiente del vector , y el valor algebraico de la proyección del vector sobre la normal a la base, que es igual al producto escalar y es una cantidad linealmente dependiente del vector . Se prueba la linealidad con respecto a , y la linealidad con respecto al resto de los argumentos se prueba de manera similar.

Aplicando el teorema de la universalidad del determinante como función multilineal asimétrica se obtiene que al elegir una base ortonormal del espacio

,

donde son las coordenadas de los vectores en la base elegida.

Así, el determinante de la matriz de coeficientes de vectores con respecto a la base ortonormal tiene el significado del volumen orientado del paralelepípedo construido sobre estos vectores.

Todo lo anterior, sin cambios significativos, se traslada a un espacio de dimensión arbitraria.

Descomposición de filas/columnas determinantes e inversión de matrices

Las fórmulas de descomposición fila/columna permiten reducir el cálculo de determinantes a un procedimiento recursivo que utiliza el cálculo de determinantes de orden inferior. Para derivar estas fórmulas, agrupamos y sumamos en la fórmula del determinante de la matriz , teniendo en cuenta la igualdad , todos los términos distintos de cero que contienen el elemento . Esta cantidad es:

,

donde es la matriz que se obtiene al eliminar la fila con el número y la columna con el número .

Dado que un elemento arbitrario se puede mover a la esquina inferior derecha de la matriz permutando la columna correspondiente a la derecha y permutando la fila correspondiente hacia abajo a la esquina inferior derecha de la matriz, y la matriz adicional conservará su forma, entonces la suma de todos los términos en la expansión del determinante que contiene , será igual a

.

La cantidad se llama complemento algebraico del elemento de la matriz .

Considerando que cada término de la expansión de un determinante con coeficiente distinto de cero contiene exactamente un elemento de la i-ésima fila, podemos expandir el determinante en términos de los términos de esta fila:

— La fórmula para la expansión del determinante en la i-ésima fila

De manera similar, dado que cada término de la expansión de un determinante con un coeficiente distinto de cero contiene exactamente un elemento de la j-ésima columna, podemos expandir el determinante en términos de los términos de esta columna:

— La fórmula para la expansión del determinante en la j-ésima columna

Si los elementos de la k-ésima fila de la matriz se copian en la i-ésima fila, su determinante será igual a cero, y de acuerdo con la fórmula para expandir el determinante en la i-ésima fila, obtenemos:

— La fórmula para la expansión "falsa" del determinante en la línea i-ésima ( ).

Del mismo modo para las columnas:

— La fórmula para la expansión "falsa" del determinante en la j-ésima columna ( )

Es útil escribir las fórmulas obtenidas en forma matricial. Introduzcamos una matriz de sumas algebraicas a los elementos de la matriz : . Entonces, de acuerdo con las fórmulas obtenidas,

.

Corolario 1 (Criterio de invertibilidad de matrices). Una matriz cuadrada es invertible si y solo si es un elemento invertible del anillo , y .

Corolario 2. Si el producto de matrices es cero y la matriz es cuadrada, entonces .

Resolución de sistemas de ecuaciones algebraicas lineales mediante determinantes

La fórmula de Cramer permite expresar la solución de un sistema de ecuaciones algebraicas lineales como una razón de determinantes, cuyo denominador es el determinante del sistema, y ​​el numerador es el determinante de la matriz del sistema, en la que la columna de coeficientes para el correspondiente variable se reemplaza por una columna de los lados derechos de las ecuaciones.

Fórmula de Cramer . Sea un sistema de ecuaciones algebraicas lineales en forma matricial:, dondees la matriz de coeficientes del sistema de tamaño,es la columna de los lados derechos de las ecuaciones del sistema, y ​​el vectores la solución de este sistema . Entonces, para cualquier, la igualdad se cumple:

Prueba

Denote por la suma e ingrese

matriz y vector .

Entonces y según el Corolario 2 del apartado anterior .

Pero como una de las componentes del vector es igual a -1, esto significa que . La afirmación se prueba porque

De esta fórmula se sigue, en particular, que si - no es degenerado (no es cero ni divisor de cero), el sistema puede tener como máximo una solución, y si el determinante también es invertible, entonces el sistema tiene una solución única.

Uno de los teoremas más importantes en la teoría de los determinantes es el siguiente teorema sobre soluciones de un sistema homogéneo de ecuaciones lineales.

Teorema. Sea un campo. Un sistema homogéneo de ecuaciones lineales tiene una solución no trivial (distinta de cero) si y solo si el determinante de la matriz de coeficientes es igual a cero: .

Prueba

La necesidad de la condición está contenida en el Corolario 2 del apartado anterior. Probemos la necesidad.

Si la matriz es cero, cualquier vector es solución. Sea el máximo menor no degenerado en la matriz de dimensiones . Sin pérdida de generalidad, asumimos que este menor está formado por las primeras r filas y columnas (de lo contrario, renumeramos las variables y reordenamos las ecuaciones en un orden diferente). Introduzcamos los vectores y . Entonces las primeras r ecuaciones del sistema en forma matricial se escriben como sigue:

Dado que la matriz es invertible, cualquier valor corresponde a un solo vector que satisface estas ecuaciones. Demostremos que en este caso las ecuaciones restantes se cumplirán automáticamente. deja _

Introduzcamos dos matrices:

y .

En la matriz , todas las columnas son partes de las columnas de la matriz , y la última columna es una combinación lineal de las columnas de la matriz con coeficientes , por lo tanto, debido a la linealidad del determinante sobre las columnas , existe una combinación lineal de las determinantes de los menores de la matriz de tamaño . Dado que es el menor no degenerado más grande en tamaño, todos los menores más grandes tienen un determinante cero, por lo que .

De la relación se sigue que , donde está la columna . Por lo tanto

entonces _ Y como , entonces también se cumple la j-ésima ecuación del sistema.

Este teorema se utiliza, en particular, para encontrar valores propios y vectores propios de matrices.

El criterio para la completitud e independencia lineal de un sistema de vectores

Estrechamente relacionado con el concepto de determinante está el concepto de dependencia lineal y completitud de los sistemas de vectores en un espacio vectorial.

Sea un campo y sea un espacio vectorial de base finita . Sea dado otro conjunto de vectores . Sus coordenadas relativas a la base dada son los coeficientes de expansión . Hagamos una matriz (cuadrada) . El teorema es cierto:

Teorema (Criterio de completitud e independencia lineal de un sistema de vectores).

(1) El sistema de vectores es linealmente dependiente si y sólo si . (2) El sistema de vectores es completo si y solo si la matriz no es degenerada ( ). Prueba

(1) La demostración se basa en que el vector tiene una columna de coordenadas igual a , donde .

Si , entonces . Entonces y si es diferente de cero, entonces .

Por el contrario, si , hay una columna no nula tal que . Esto significa que .

(2) Si la matriz no es degenerada, es invertible. Sea un vector arbitrario, sea una columna de sus coordenadas, . entonces _ Por lo tanto, un vector arbitrario se puede descomponer en un sistema de vectores , lo que significa que es completo.

Por el contrario, deje que la matriz sea degenerada. Entonces existe una fila distinta de cero de coeficientes tal que . Esto significa que cualquier vector descomponible en términos de un sistema de vectores satisface la restricción . Si algún coeficiente es distinto de cero, entonces el vector base no se puede expandir en este sistema de vectores, lo que significa que no está completo.

Consecuencia. En un espacio vectorial que tiene una base finita de vectores:

(1) cualquier sistema que consista en menos que vectores no está completo; (2) cualquier sistema que consta de más de vectores es linealmente dependiente; (3) cada base del espacio contiene exactamente vectores.

Así, la dimensión de un espacio vectorial de base finita está bien definida.

Algunas propiedades especiales de los determinantes

Implementación algorítmica

donde  es el número de permutaciones de fila realizadas por el algoritmo y  es la forma escalonada de la matriz obtenida como resultado del algoritmo. La complejidad de este método, al igual que el método de Gauss, es que para su implementación es necesario utilizar la operación de división.

Tipos especiales de determinantes

Véase también

Notas

  1. Bronstein I. N., Semendyaev K. A. Manual de matemáticas para ingenieros y estudiantes de instituciones de educación superior. — 13ª ed., corregida. — M .: Nauka, 1986.
  2. E. I. Berezkina. Matemáticas de la antigua China. — M .: Nauka, 1980.
  3. HW Evas. Introducción a la Historia de las Matemáticas . — Publicaciones del Colegio Saunders, 1990.
  4. Skornyakov L. A. Elementos de álgebra. - M.: Nauka, 1986. - S. 16-23. – Circulación 21.000 ejemplares.
  5. JR Bunch y JE Hopcroft. Factorización triangular e inversión por multiplicación rápida de matrices, Mathematics of Computation , 28 (1974) 231-236.

Literatura