Vector propio

Un vector propio  es un concepto en álgebra lineal , definido para un operador lineal arbitrario como un vector distinto de cero , la aplicación del operador al cual da un vector colineal : el mismo vector multiplicado por algún valor escalar (que puede ser igual a 0) . El escalar por el que el vector propio se multiplica por el operador se denomina valor propio (o valor propio ) del operador lineal correspondiente al vector propio dado. Una de las representaciones del operador lineal es la matriz cuadrada, por lo que los vectores propios y los valores propios a menudo se definen en el contexto del uso de tales matrices [1] [2] .

Los conceptos de vector propio y valor propio [3] son ​​uno de los conceptos clave en álgebra lineal; muchas construcciones se construyen sobre su base. Esto se debe al hecho de que muchas relaciones asociadas con los operadores lineales se simplifican significativamente en un sistema de coordenadas construido sobre la base de los vectores propios del operador. El conjunto de valores propios de un operador lineal ( espectro del operador ) caracteriza propiedades importantes del operador sin referencia a ningún sistema de coordenadas en particular. Por estas razones, los vectores propios son de gran importancia práctica. Entonces, por ejemplo, los vectores propios se encuentran a menudo en mecánica, teoría cuántica, etc. En particular, el operador de proyección de giro en un eje arbitrario tiene dos valores propios y sus vectores propios correspondientes.

El concepto de un espacio vectorial lineal no se limita a los vectores "puramente geométricos" y se generaliza a varios conjuntos de objetos, como los espacios de funciones (sobre los que actúan los operadores lineales diferenciales e integrales). Para tales espacios y operadores se habla de las funciones propias de los operadores.

El conjunto de todos los vectores propios de un operador lineal correspondiente a un valor propio dado, complementado por un vector cero , se denomina subespacio propio [4] de este operador.

La búsqueda de algoritmos óptimos para calcular valores propios para un operador lineal dado es uno de los problemas importantes en las matemáticas computacionales .

Definiciones

Un vector propio de una transformación lineal , donde  es un espacio lineal sobre un campo , es un vector distinto de cero , tal que para algunos .

Un valor propio ( eigenvalue ) de una transformación lineal es un número para el cual existe un vector propio, es decir, la ecuación tiene una solución distinta de cero .

En pocas palabras, un vector propio es cualquier vector distinto de cero que el operador asigna a un vector colineal con él , y el escalar correspondiente se denomina valor propio del operador .

El subespacio propio (o subespacio característico ) de una transformación lineal para un valor propio dado (o correspondiente a este número) es el conjunto de todos los vectores propios correspondientes a un valor propio dado, complementado por un vector cero. Denotemos el subespacio propio correspondiente al valor propio , por , y el operador de identidad por . Por definición, un subespacio propio es el núcleo de un operador , es decir, el conjunto de vectores asignados por este operador a un vector nulo:

.

El vector raíz de una transformación lineal para un valor propio dado es un vector distinto de cero tal que para algún número natural :

.

Si es el más pequeño de tales números naturales (es decir , ), entonces se llama la altura del vector raíz .

El subespacio raíz de una transformación lineal para un valor propio dado es el conjunto de todos los vectores raíz correspondientes al valor propio dado, si este conjunto se complementa con un vector cero. Denotemos el subespacio raíz correspondiente al valor propio λ por . Por definición:

.

Historia

Los valores propios generalmente se introducen en el contexto del álgebra lineal, sin embargo, históricamente se originaron en el estudio de formas cuadráticas y ecuaciones diferenciales .

En el siglo XVIII , Euler , estudiando el movimiento de rotación de un cuerpo absolutamente rígido , descubrió el significado de los ejes principales, y Lagrange demostró que los ejes principales corresponden a los vectores propios de la matriz de inercia . A principios del siglo XIX , Cauchy utilizó el trabajo de Euler y Lagrange para clasificar superficies de segundo orden y generalizar los resultados a órdenes superiores. Cauchy también acuñó el término "raíz característica" ( en francés:  racine caractéristique ) para valor propio. Este término se ha conservado en el contexto del polinomio característico de una matriz [5] [6] .

A principios del siglo XX, Hilbert se dedicó al estudio de los valores propios de los operadores integrales, considerando a estos últimos como matrices de tamaño infinito [7] . En 1904, Hilbert comenzó a utilizar los términos valores propios y vectores propios para referirse a valores propios y vectores propios , basándose en la palabra alemana eigen ( propio ) [8] . Posteriormente, estos términos también fueron transferidos al idioma inglés, reemplazando a los anteriormente utilizados "valor propio" y "vector propio" [9] .

Propiedades

Caso general

Un subespacio se llama subespacio invariante de una transformación lineal ( -subespacio invariante ) si:

.

Los subespacios propios , los subespacios raíz y los subespacios de un operador lineal son invariantes.

Los vectores propios son raíces (alturas 1): ;

Los vectores raíz pueden no ser vectores propios: por ejemplo, para transformar un espacio bidimensional dado por una matriz:

, y todos los vectores son raíces, correspondientes a un valor propio , pero tiene un solo vector propio (hasta la multiplicación por un número).

Para diferentes valores propios, los subespacios raíz (y por lo tanto los valores propios) tienen una intersección trivial (cero):

si _

El método para encontrar valores propios para operadores autoadjuntos y encontrar valores singulares para un operador normal viene dado por el teorema de Courant-Fisher .

Espacios lineales de dimensión finita

Al elegir una base en un espacio lineal bidimensional , se puede asociar una matriz cuadrada con una transformación lineal y determinar el polinomio característico de la matriz para ella :

.

El polinomio característico no depende de la base en . Sus coeficientes son operadores invariantes . En particular, no dependen de la elección de la base.

Los valores propios, y solo ellos, son las raíces del polinomio característico de la matriz. El número de valores propios distintos no puede exceder el tamaño de la matriz. Si elegimos los vectores propios del operador como vectores base, entonces la matriz en tal base se volverá diagonal y los valores propios del operador estarán en la diagonal. Tenga en cuenta, sin embargo, que no todas las matrices admiten una base de vectores propios (la estructura general se describe mediante la forma de Jordan normal ). Para una matriz simétrica definida positiva, el procedimiento para encontrar valores propios y vectores propios no es más que encontrar las direcciones y longitudes de los semiejes de la elipse correspondiente .

Si el campo numérico es algebraicamente cerrado (por ejemplo, es el campo de los números complejos ), entonces el polinomio característico se descompone en un producto de factores lineales:

,

donde  son valores propios; algunos de ellos pueden ser iguales. La multiplicidad del valor propio  es el número de factores que son iguales en la expansión del polinomio característico en factores lineales (también llamada multiplicidad algebraica del valor propio ).

La dimensión del espacio raíz es igual a la multiplicidad del valor propio.

Un espacio vectorial se descompone en una suma directa de subespacios raíz (por el teorema de la forma de Jordan ):

donde la sumatoria es sobre todos los  valores propios .

La multiplicidad geométrica de un valor propio  es la dimensión del subespacio propio correspondiente ; la multiplicidad geométrica de un valor propio no excede su multiplicidad, ya que

Operadores normales y sus subclases

Todos los vectores raíz de un operador normal son vectores propios. Los vectores propios del operador normal correspondientes a diferentes valores propios son ortogonales, es decir, si , y , entonces (esto no es cierto para un operador arbitrario).

Todos los valores propios de un operador autoadjunto son reales, los de un operador antihermitiano  son imaginarios y todos los valores propios de un operador unitario se encuentran en el círculo unitario .

En el caso de dimensión finita, la suma de las dimensiones de los subespacios propios del operador normal correspondiente a todos los valores propios es igual a la dimensión de la matriz, y el espacio vectorial se descompone en una suma ortogonal de subespacios propios:

,

donde la sumatoria es sobre todos los  autovalores , y son mutuamente ortogonales para diferentes . Esta propiedad para un operador normal sobre en el caso de dimensión finita es característica: el operador es normal si y solo si su matriz tiene una forma diagonal en alguna base ortonormal .

Matrices positivas

Una matriz real cuadrada se llama positiva si todos sus elementos son positivos: .

Teorema de Perron (un caso especial del teorema de Perron-Frobenius ): una matriz cuadrada positiva tiene un valor propio positivo que tiene multiplicidad algebraica 1 y excede estrictamente el valor absoluto de cualquier otro valor propio de esa matriz. Un valor propio corresponde a un vector propio , cuyas coordenadas son estrictamente positivas. Un vector  es el único vector propio (hasta la multiplicación por un número) que tiene coordenadas no negativas.

El vector propio se puede calcular a través de iteraciones directas : se elige un vector inicial arbitrario con coordenadas positivas, el elemento siguiente viene dado por la fórmula recursiva:

,

se obtiene una secuencia que converge a un vector propio normalizado .

Otra área de aplicación del método de iteración directa es la búsqueda de vectores propios de operadores simétricos definidos positivos.

Desigualdades de valores propios

Desigualdad de Schur : para  valores propios de matriz :

,

además, la igualdad se logra si y solo si  es una matriz normal [10] .

Para los valores propios de la matriz , donde las matrices  son hermitianas , tenemos:

y [11] .

Para matrices hermitianas  y sus valores propios, ordenados en orden ascendente: dar: en y en [11] .

Notas

  1. Herstein (1964 , págs. 228,229)
  2. Nering (1970 , pág. 38)
  3. A veces se utilizan términos sinónimos: vector característico y número característico del operador.
  4. No debe confundirse con un subespacio propio de un espacio vectorial lineal: cualquier subespacio que no sean los subespacios triviales , es decir, de este espacio mismo y del espacio nulo.
  5. Kline, 1972 , págs. 807–808.
  6. Augustin Cauchy (1839) "Mémoire sur l'intégration des équations linéaires" (Memorias sobre la integración de ecuaciones lineales), Comptes rendus , 8  : 827-830, 845-865, 889-907, 931-937. pags. 827: Archivado el 7 de junio de 2019 en Wayback Machine . que j'appellerai l'equation caractéristique , le degré de cette équation étant précisément l'order de l'équation différentielle qu'il s'agit d'intégrer."
  7. Kline, 1972 , pág. 1063.
  8. David Hilbert (1904). Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen. (Erste Mitteilung)" , archivado el 5 de noviembre de 2018 en Wayback Machine , Nachrichten von der Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse , págs. 49-91.
  9. Aldrich, John (2006), "Valor propio, función propia, vector propio y términos relacionados", en Jeff Miller (ed.), Usos más antiguos conocidos de algunas de las palabras de las matemáticas . Archivado el 23 de diciembre de 2017 en Wayback Machine .
  10. Problemas y teoremas de álgebra lineal, 1996 , p. 206.
  11. 1 2 Problemas y teoremas de álgebra lineal, 1996 , p. 207.

Literatura