El determinante ( determinante ) en álgebra lineal es un valor escalar que caracteriza la "expansión" o "compresión" orientada de un espacio euclidiano multidimensional después de la transformación matricial; solo tiene sentido para matrices cuadradas . La notación estándar para el determinante de una matriz es , , [1] .
El determinante de una matriz de dimensión cuadrada definida sobre un anillo conmutativo es un elemento del anillo . Este valor determina muchas propiedades de la matriz , en particular, la matriz es invertible si y solo si su determinante es un elemento invertible del anillo . En el caso de que sea un campo , el determinante de la matriz es igual a cero si y solo si el rango de la matriz es menor que , es decir, cuando los sistemas de filas y columnas de la matriz son linealmente dependientes .
La teoría de los determinantes surgió en relación con el problema de resolver sistemas de ecuaciones lineales .
Los autores del antiguo libro de texto chino " Matemáticas en nueve libros " [2] se acercaron al concepto de determinante .
En Europa, los determinantes de las matrices 2×2 se encuentran en Cardano en el siglo XVI. Para dimensiones superiores, la definición de determinante la dio Leibniz en 1693. La primera publicación es de Kramer . La teoría de los determinantes fue creada por Vandermonde , Laplace , Cauchy y Jacobi . El término "determinante" en su significado moderno fue introducido por O. Cauchy (1815), aunque antes (1801) K. Gauss llamó "determinante" al discriminante de una forma cuadrática.
El matemático japonés Seki Takakazu introdujo los determinantes de forma independiente en 1683 [3] .
Para una matriz cuadrada de tamaño, su determinante se calcula mediante la fórmula:
,donde la suma se lleva a cabo sobre todas las permutaciones de números y denota el número de inversiones en la permutación .
Así, el determinante incluye términos, que también se denominan "términos del determinante".
Fórmula equivalente:
,donde el coeficiente - el símbolo de Levi-Civita - es igual a:
0 si no todos los índices son distintos, 1 si todos los índices son diferentes y la sustitución es par, −1 si todos los índices son diferentes y la sustitución es impar.El concepto de determinante se puede introducir sobre la base de sus propiedades. Es decir, el determinante de una matriz real es una función que tiene las siguientes tres propiedades [4] :
Para una matriz de primer orden, el valor del determinante es igual al único elemento de esta matriz:
Para una matriz , el determinante se calcula como:
Esta matriz A puede verse como una matriz de mapeo lineal que transforma el cuadrado unitario en un paralelogramo con vértices (0, 0) , ( a , b ) , ( a + c , b + d ) , y ( c , d ) .
El valor absoluto del determinante es igual al área de este paralelogramo y, por lo tanto, refleja el factor por el cual se escalan las áreas en la transformación A.
El valor del determinante con signo ( el área orientada del paralelogramo), además del factor de escala, también indica si la transformación A realiza una reflexión.
El determinante de la matriz se puede calcular mediante la fórmula:
Para un cálculo más conveniente del determinante de tercer orden, puede usar la regla de Sarrus o la regla del triángulo.
El determinante de una matriz compuesta de vectores es igual a su producto mixto en el sistema de coordenadas cartesiano derecho y, de manera similar al caso bidimensional, es un volumen orientado de un paralelepípedo atravesado por .
En general, para matrices de órdenes superiores (por encima de 2) , el determinante se puede calcular aplicando la siguiente fórmula recursiva:
, donde es un menor adicional al elemento . Esta fórmula se llama expansión de filas .Es fácil probar que el determinante de la matriz no cambia durante la transposición (es decir, una expansión similar en la primera columna también es válida, es decir, da el mismo resultado que la expansión en la primera fila):
Pruebadeja _
Probemos eso por inducción. Se puede ver que esto es cierto para la matriz:
Supongamos que para la matriz de orden - cierto.
■Una expansión similar para cualquier fila (columna) también es válida:
Pruebadeja _
Probemos eso por inducción. Se puede ver que esto es cierto para la matriz:
Supongamos que para la matriz de orden - cierto.
Recolectemos los coeficientes para :
Recolectemos los coeficientes para :
■La generalización de las fórmulas anteriores es la expansión del determinante según Laplace ( teorema de Laplace ), que hace posible calcular el determinante para cualquier fila (columna):
Las siguientes propiedades reflejan los principales resultados de la teoría de los determinantes, cuya aplicación va mucho más allá de los límites de esta teoría:
Al estudiar la teoría de los determinantes, es útil tener en cuenta que esta teoría se basa en la técnica de manipulación de filas y columnas de matrices desarrollada por K.F. Gaussiana (Transformaciones gaussianas). La esencia de estas transformaciones se reduce a operaciones lineales sobre filas (columnas) y su permutación. Estas transformaciones se reflejan en el determinante de una manera bastante sencilla, y al estudiarlas conviene "particionar" la matriz original en filas (o columnas) y considerar el determinante como una función definida sobre conjuntos de filas (columnas). Además, las letras denotan las filas (columnas) de la matriz .
1. El determinante es una función multilineal de filas (columnas) de una matriz. La multilinealidad significa que la función es lineal en cada argumento con valores fijos de los argumentos restantes: 2. El determinante es una función asimétrica de las filas (columnas) de la matriz, es decir, cuando se intercambian dos filas (columnas) de la matriz, su determinante se multiplica por −1: 3. Si dos filas (columnas) de una matriz son iguales, entonces su determinante es igual a cero:Comentario. Las propiedades 1-3 son las principales propiedades del determinante en función de las filas (columnas), se prueban fácilmente directamente a partir de la definición. La propiedad 2 (simetría sesgada) es una consecuencia lógica de las propiedades 1 y 3. La propiedad 3 es una consecuencia lógica de la propiedad 2 si el elemento 2 (es decir, 1 + 1) en el anillo no coincide con cero y no es un divisor de cero. Las propiedades 1 y 3 también implican las siguientes propiedades:
4. El factor común de los elementos de cualquier fila (columna) del determinante se puede sacar del signo del determinante (consecuencia de la propiedad 1). 5. Si al menos una fila (columna) de la matriz es cero, entonces el determinante es igual a cero (consecuencia de la propiedad 4). 6. Si dos (o varias) filas (columnas) de una matriz son linealmente dependientes, entonces su determinante es igual a cero (consecuencia de las propiedades 1 y 3). 7. Al agregar a cualquier fila (columna) una combinación lineal de otras filas (columnas), el determinante no cambia (consecuencia de las propiedades 1 y 6).Un hecho de fundamental importancia es la universalidad del determinante como una función multilineal oblicuamente simétrica de rango completo, cuyos argumentos son elementos de un espacio vectorial de dimensión finita (o módulo de base finita). El seguimiento
Teorema. Sea un módulo libre de rango ( -espacio vectorial dimensional sobre , si es un campo). Sea una función de -valor con propiedades 1-3. Entonces, al elegir la base del espacio , existe una constante tal que para todos los valores la igualdad es cierta: ,donde es una columna de coordenadas del vector con respecto a la base .
PruebaExpandamos los vectores según la base : . Entonces les corresponderán las siguientes columnas: .
Debido a la multilinealidad de la función
En virtud de la propiedad 3, si hay índices coincidentes entre ellos, entonces
.De lo contrario, debido a la simetría sesgada (propiedad 2), obtenemos:
.Así , donde . ■
Una de las consecuencias más importantes de la universalidad del determinante es el siguiente teorema sobre la multiplicatividad del determinante.
Teorema. Sea una matriz de tamaño . Entonces para cualquier matriz de tamaño . PruebaConsidere una forma multilineal sesgada simétrica en el espacio columna . Según el teorema probado, esta forma es igual a , donde . ■
Sean tres vectores en el espacio . Generan un paralelepípedo cuyos vértices se encuentran en puntos con radios vectores . Esta caja puede degenerar si los vectores son coplanares (están en el mismo plano, son linealmente dependientes).
La función de volumen orientado se define como el volumen de la caja generado por estos vectores, y se toma con signo "+" si el triple de vectores está orientado positivamente, y con signo "-" si está orientado negativamente. La función es multilineal y asimétrica. La propiedad 3 obviamente se cumple. Para probar la multilinealidad de esta función, basta probar su linealidad con respecto al vector . Si los vectores son linealmente dependientes, el valor será cero independientemente del vector y, por lo tanto, linealmente dependiente de él. Si los vectores son linealmente independientes, se denota por el vector de la unidad normal al plano de vectores , tal que . Entonces el volumen orientado del paralelepípedo es igual al producto del área de la base, construida sobre vectores e independiente del vector , y el valor algebraico de la proyección del vector sobre la normal a la base, que es igual al producto escalar y es una cantidad linealmente dependiente del vector . Se prueba la linealidad con respecto a , y la linealidad con respecto al resto de los argumentos se prueba de manera similar.
Aplicando el teorema de la universalidad del determinante como función multilineal asimétrica se obtiene que al elegir una base ortonormal del espacio
,donde son las coordenadas de los vectores en la base elegida.
Así, el determinante de la matriz de coeficientes de vectores con respecto a la base ortonormal tiene el significado del volumen orientado del paralelepípedo construido sobre estos vectores.
Todo lo anterior, sin cambios significativos, se traslada a un espacio de dimensión arbitraria.
Las fórmulas de descomposición fila/columna permiten reducir el cálculo de determinantes a un procedimiento recursivo que utiliza el cálculo de determinantes de orden inferior. Para derivar estas fórmulas, agrupamos y sumamos en la fórmula del determinante de la matriz , teniendo en cuenta la igualdad , todos los términos distintos de cero que contienen el elemento . Esta cantidad es:
,donde es la matriz que se obtiene al eliminar la fila con el número y la columna con el número .
Dado que un elemento arbitrario se puede mover a la esquina inferior derecha de la matriz permutando la columna correspondiente a la derecha y permutando la fila correspondiente hacia abajo a la esquina inferior derecha de la matriz, y la matriz adicional conservará su forma, entonces la suma de todos los términos en la expansión del determinante que contiene , será igual a
.La cantidad se llama complemento algebraico del elemento de la matriz .
Considerando que cada término de la expansión de un determinante con coeficiente distinto de cero contiene exactamente un elemento de la i-ésima fila, podemos expandir el determinante en términos de los términos de esta fila:
— La fórmula para la expansión del determinante en la i-ésima filaDe manera similar, dado que cada término de la expansión de un determinante con un coeficiente distinto de cero contiene exactamente un elemento de la j-ésima columna, podemos expandir el determinante en términos de los términos de esta columna:
— La fórmula para la expansión del determinante en la j-ésima columnaSi los elementos de la k-ésima fila de la matriz se copian en la i-ésima fila, su determinante será igual a cero, y de acuerdo con la fórmula para expandir el determinante en la i-ésima fila, obtenemos:
— La fórmula para la expansión "falsa" del determinante en la línea i-ésima ( ).Del mismo modo para las columnas:
— La fórmula para la expansión "falsa" del determinante en la j-ésima columna ( )Es útil escribir las fórmulas obtenidas en forma matricial. Introduzcamos una matriz de sumas algebraicas a los elementos de la matriz : . Entonces, de acuerdo con las fórmulas obtenidas,
.Corolario 1 (Criterio de invertibilidad de matrices). Una matriz cuadrada es invertible si y solo si es un elemento invertible del anillo , y .
Corolario 2. Si el producto de matrices es cero y la matriz es cuadrada, entonces .
La fórmula de Cramer permite expresar la solución de un sistema de ecuaciones algebraicas lineales como una razón de determinantes, cuyo denominador es el determinante del sistema, y el numerador es el determinante de la matriz del sistema, en la que la columna de coeficientes para el correspondiente variable se reemplaza por una columna de los lados derechos de las ecuaciones.
Fórmula de Cramer . Sea un sistema de ecuaciones algebraicas lineales en forma matricial:, dondees la matriz de coeficientes del sistema de tamaño,es la columna de los lados derechos de las ecuaciones del sistema, y el vectores la solución de este sistema . Entonces, para cualquier, la igualdad se cumple:
PruebaDenote por la suma e ingrese
matriz y vector .Entonces y según el Corolario 2 del apartado anterior .
Pero como una de las componentes del vector es igual a -1, esto significa que . La afirmación se prueba porque
■De esta fórmula se sigue, en particular, que si - no es degenerado (no es cero ni divisor de cero), el sistema puede tener como máximo una solución, y si el determinante también es invertible, entonces el sistema tiene una solución única.
Uno de los teoremas más importantes en la teoría de los determinantes es el siguiente teorema sobre soluciones de un sistema homogéneo de ecuaciones lineales.
Teorema. Sea un campo. Un sistema homogéneo de ecuaciones lineales tiene una solución no trivial (distinta de cero) si y solo si el determinante de la matriz de coeficientes es igual a cero: .
PruebaLa necesidad de la condición está contenida en el Corolario 2 del apartado anterior. Probemos la necesidad.
Si la matriz es cero, cualquier vector es solución. Sea el máximo menor no degenerado en la matriz de dimensiones . Sin pérdida de generalidad, asumimos que este menor está formado por las primeras r filas y columnas (de lo contrario, renumeramos las variables y reordenamos las ecuaciones en un orden diferente). Introduzcamos los vectores y . Entonces las primeras r ecuaciones del sistema en forma matricial se escriben como sigue:
Dado que la matriz es invertible, cualquier valor corresponde a un solo vector que satisface estas ecuaciones. Demostremos que en este caso las ecuaciones restantes se cumplirán automáticamente. deja _
Introduzcamos dos matrices:
y .En la matriz , todas las columnas son partes de las columnas de la matriz , y la última columna es una combinación lineal de las columnas de la matriz con coeficientes , por lo tanto, debido a la linealidad del determinante sobre las columnas , existe una combinación lineal de las determinantes de los menores de la matriz de tamaño . Dado que es el menor no degenerado más grande en tamaño, todos los menores más grandes tienen un determinante cero, por lo que .
De la relación se sigue que , donde está la columna . Por lo tanto
entonces _ Y como , entonces también se cumple la j-ésima ecuación del sistema. ■
Este teorema se utiliza, en particular, para encontrar valores propios y vectores propios de matrices.
Estrechamente relacionado con el concepto de determinante está el concepto de dependencia lineal y completitud de los sistemas de vectores en un espacio vectorial.
Sea un campo y sea un espacio vectorial de base finita . Sea dado otro conjunto de vectores . Sus coordenadas relativas a la base dada son los coeficientes de expansión . Hagamos una matriz (cuadrada) . El teorema es cierto:
Teorema (Criterio de completitud e independencia lineal de un sistema de vectores).
(1) El sistema de vectores es linealmente dependiente si y sólo si . (2) El sistema de vectores es completo si y solo si la matriz no es degenerada ( ). Prueba(1) La demostración se basa en que el vector tiene una columna de coordenadas igual a , donde .
Si , entonces . Entonces y si es diferente de cero, entonces .
Por el contrario, si , hay una columna no nula tal que . Esto significa que .
(2) Si la matriz no es degenerada, es invertible. Sea un vector arbitrario, sea una columna de sus coordenadas, . entonces _ Por lo tanto, un vector arbitrario se puede descomponer en un sistema de vectores , lo que significa que es completo.
Por el contrario, deje que la matriz sea degenerada. Entonces existe una fila distinta de cero de coeficientes tal que . Esto significa que cualquier vector descomponible en términos de un sistema de vectores satisface la restricción . Si algún coeficiente es distinto de cero, entonces el vector base no se puede expandir en este sistema de vectores, lo que significa que no está completo. ■
Consecuencia. En un espacio vectorial que tiene una base finita de vectores:
(1) cualquier sistema que consista en menos que vectores no está completo; (2) cualquier sistema que consta de más de vectores es linealmente dependiente; (3) cada base del espacio contiene exactamente vectores.Así, la dimensión de un espacio vectorial de base finita está bien definida.
diccionarios y enciclopedias |
|
---|---|
En catálogos bibliográficos |
|