Kernel (álgebra lineal)

El núcleo de un mapeo lineal es un subespacio lineal del dominio de mapeo , cada elemento del cual se asigna a un vector nulo [1] [2] . Es decir, si se da una aplicación lineal entre dos espacios vectoriales V y W , entonces el núcleo de la aplicación L es el espacio vectorial de todos los elementos del espacio V tal que , donde denota el vector cero de W [3] , o más formalmente:

Propiedades

El núcleo del mapa L es un subespacio lineal del dominio V [4] . En un mapeo lineal , dos elementos de V tienen la misma imagen en W si y solo si su diferencia está en el núcleo de L :

De aquí se sigue que la imagen L es isomorfa al espacio cociente del espacio V con respecto al núcleo:

En el caso de que V sea de dimensión finita , esto implica el teorema de rango y defecto :

donde por rango entendemos la dimensión de la imagen del mapeo L , y por defecto , la dimensión del núcleo del mapeo L [5] .

Si V es un espacio anterior a Hilbert , el espacio del cociente se puede identificar con el complemento ortogonal del espacio V. Esta es una generalización de los operadores lineales del espacio fila o matriz coimage.

Aplicación a módulos

El concepto de núcleo también tiene sentido para los homomorfismos de módulos , que son generalizaciones de espacios vectoriales, donde los escalares son elementos de un anillo , no de un campo . El alcance de un mapeo es un módulo con un núcleo que forma un submódulo . Aquí, los conceptos de rango y dimensión del núcleo son opcionales.

En análisis funcional

Si y son espacios vectoriales topológicos , y es de dimensión finita, entonces el operador lineal es continuo si y solo si el núcleo del mapeo es un subespacio cerrado del espacio .

Representación como multiplicación de matrices

Considere un mapeo lineal representado por una matriz de tamaño con coeficientes del campo (usualmente de o ), es decir, operando en vectores columna con elementos del campo . El núcleo de esta aplicación lineal es el conjunto de soluciones de la ecuación , donde se entiende como vector cero . La dimensión del núcleo de la matriz se denomina defecto de la matriz . En forma de operaciones sobre conjuntos ,

La ecuación matricial es equivalente al sistema homogéneo de ecuaciones lineales :

Entonces, el núcleo de la matriz es el mismo que la solución del conjunto de ecuaciones homogéneas anterior.

Propiedades del subespacio

El núcleo de una matriz sobre un campo es un subespacio lineal . Es decir, el núcleo de la matriz , conjunto , tiene las siguientes tres propiedades:

  1. siempre contiene un vector nulo porque .
  2. Si y , entonces . Esto se sigue de la propiedad distributiva de la multiplicación de matrices.
  3. Si , a es un escalar , entonces desde .

Matriz de espacio de filas

El producto se puede escribir en términos del producto escalar de vectores de la siguiente manera:

Aquí están las filas de la matriz . Esto implica que pertenece al núcleo de la matriz si y solo si el vector es ortogonal (perpendicular) a cada uno de los vectores fila de la matriz (ya que la ortogonalidad se define como que el producto escalar es igual a cero).

El espacio fila , o coimagen de la matriz , es el tramo lineal de los vectores fila de la matriz . Por las razones anteriores, el núcleo de la matriz es el complemento ortogonal del espacio de filas. Es decir, un vector se encuentra en el núcleo de la matriz si y solo si es perpendicular a cualquier vector del espacio de filas de la matriz .

La dimensión del espacio de filas de una matriz se denomina rango de la matriz , y la dimensión del núcleo de la matriz se denomina defecto de la matriz . Estas cantidades están relacionadas por el teorema de rango y defecto

[5]

Espacio nulo izquierdo (cokernel)

El espacio nulo izquierdo o cokernel de una matriz consta de todos los vectores tales que , donde denota la transposición de la matriz. El espacio nulo izquierdo de una matriz es el mismo que el núcleo de la matriz . El espacio nulo izquierdo de una matriz es ortogonal al espacio columna de la matriz y es dual al cokernel de la transformación lineal asociada. El núcleo, el espacio de fila, el espacio de columna y el espacio nulo izquierdo de una matriz son los cuatro subespacios fundamentales asociados con una matriz .

Sistemas no homogéneos de ecuaciones lineales

El kernel también juega un papel importante en la resolución de sistemas no homogéneos de ecuaciones lineales:

Sean los vectores y las soluciones de la ecuación anterior, entonces

Por lo tanto, la diferencia de dos soluciones cualesquiera del sistema radica en el núcleo de la matriz .

Esto implica que cualquier solución de la ecuación puede expresarse como la suma de una solución fija y algún elemento del kernel. Es decir, el conjunto de soluciones de la ecuación es

Geométricamente, esto significa que el conjunto de soluciones de la ecuación está formado por la transferencia paralela del núcleo de la matriz al vector . Véase también Alternativa de Fredholm .

Ilustración

A continuación se muestra una ilustración simple del cálculo del núcleo de una matriz (consulte el cálculo gaussiano a continuación para conocer un método más adecuado para cálculos más complejos). La ilustración también toca los espacios de cadenas y su relación con el núcleo.

Considere la matriz

El núcleo de esta matriz consta de todos los vectores para los cuales

que se puede expresar como un sistema homogéneo de ecuaciones lineales para , y :

Las mismas igualdades se pueden escribir en forma matricial:

Usando el método de Gauss, la matriz se puede reducir a:

Al convertir la matriz en ecuaciones se obtiene:

Los elementos del núcleo se pueden expresar en forma paramétrica de la siguiente manera:

Dado que es una variable libre que se ejecuta sobre todos los números reales, esta expresión se puede reescribir de manera equivalente como:

El núcleo de la matriz es exactamente el conjunto de soluciones de estas ecuaciones (en este caso, la recta que pasa por el origen en ). Aquí el vector (−1,−26,16) T forma la base del núcleo de la matriz . El defecto de la matriz es 1.

Los siguientes productos punto son cero:

lo que muestra que los vectores kernel de la matriz son ortogonales a cada vector fila de la matriz .

El tramo lineal de estos dos vectores fila (linealmente independientes) es un plano ortogonal al vector .

Dado que el rango de la matriz es 2, la dimensión del núcleo de la matriz es 1 y la dimensión de la matriz es 3, tenemos una ilustración del teorema de rango y defecto.

Ejemplos

, entonces el núcleo del operador L es el conjunto de soluciones del sistema Entonces el núcleo de L consta de todas las funciones para las cuales . Entonces el núcleo de D consta de todas las funciones en , cuya derivada es igual a cero, es decir, de todas las funciones constantes . Entonces el núcleo del operador s será un subespacio unidimensional formado por todos los vectores .

Cálculos de Gauss

La base del núcleo de una matriz se puede calcular utilizando el método de Gauss .

Para este propósito, dada una matriz , primero construimos una matriz extendida por filas , donde es la matriz identidad .

Si calculamos la forma escalonada de columnas de la matriz por el método gaussiano (o cualquier otro método adecuado), obtenemos la matriz . La base del núcleo de la matriz consiste en columnas distintas de cero de la matriz tales que las columnas correspondientes de la matriz a son cero .

De hecho, el cálculo se puede detener tan pronto como la matriz toma la forma escalonada de columnas; el resto del cálculo consiste en cambiar la base del espacio vectorial formado por las columnas, la parte superior de las cuales es igual a cero.

Por ejemplo, imaginemos que

Después

Si reducimos la parte superior mediante operaciones sobre columnas a una forma escalonada, obtenemos

Las últimas tres columnas de la matriz son cero. Por lo tanto, los últimos tres vectores de la matriz ,

son la base del kernel de la matriz .

Prueba de que el método calcula un núcleo: dado que las operaciones de columna corresponden a la multiplicación por la derecha por una matriz invertible, el hecho de que se reduzca a implica que existe una matriz invertible tal que donde tiene una forma escalonada. Entonces y Column Vector pertenece al núcleo de la matriz (es decir, ) si y solo si donde Dado que tiene una forma escalonada, si y solo si los elementos distintos de cero corresponden a las columnas cero de la matriz Después de la multiplicación por, podemos concluir que este sucede si y solo cuando es una combinación lineal de las columnas correspondientes de la matriz

Cálculos numéricos

La tarea de calcular el kernel en una computadora depende de la naturaleza de los coeficientes.

Probabilidades exactas

Si los coeficientes de una matriz se dan como números exactos, la forma escalonada de la matriz se puede calcular mediante el algoritmo de Bareis , que es más eficiente que el método de Gauss. Aún más eficaz es el uso de la comparación de módulo y el teorema chino del resto , que reducen el problema a varios problemas similares sobre campos finitos (lo que reduce la sobrecarga generada por la complejidad computacional no lineal de la multiplicación de enteros).

Para coeficientes de un campo finito, el método gaussiano funciona bien, pero para matrices grandes que ocurren en criptografía y en el cálculo de la base de Gröbner , se conocen mejores algoritmos que tienen casi la misma complejidad computacional , pero son más rápidos y más adecuados para los dispositivos informáticos modernos. .

Cálculos de punto flotante

Para las matrices cuyos elementos son números de punto flotante , la tarea de calcular el kernel tiene sentido solo para matrices cuyo número de filas es igual a su rango; debido a errores de redondeo , las matrices de punto flotante casi siempre tienen rango completo , incluso cuando son una aproximación de una matriz de muchos rangos inferiores. Incluso para una matriz de rango completo, su kernel se puede calcular solo cuando está bien condicionada , es decir, tiene un número de condición bajo [6] .

Y para una matriz de rango completo bien condicionada, el método de Gauss no se comporta correctamente: los errores de redondeo son demasiado grandes para obtener un resultado significativo. Dado que el cálculo del núcleo de la matriz es un caso especial de resolución de un sistema homogéneo de ecuaciones lineales, el núcleo puede calcularse mediante cualquier algoritmo diseñado para resolver sistemas homogéneos. El software avanzado para este propósito es la biblioteca Lapack .

Véase también

Notas

  1. El glosario definitivo de la jerga matemática superior: nulo . Bóveda matemática (1 de agosto de 2019). Recuperado: 9 de diciembre de 2019.
  2. Weisstein, Eric W. Kernel . mundomatemático.wolfram.com . Recuperado: 9 de diciembre de 2019.
  3. Núcleo (espacio nulo) | Wiki de Matemáticas y Ciencias Brillantes . brillante.org . Recuperado: 9 de diciembre de 2019.
  4. El álgebra lineal, como se analiza en este artículo, es una disciplina matemática bien establecida para la que se pueden encontrar muchos libros. Casi todo el material del artículo se puede encontrar en conferencias de Lay ( Lay, 2005 ), Meyer ( Meyer, 2001 ) y Strang.
  5. 1 2 Weisstein, Eric W. Teorema de nulidad de rango . mundomatemático.wolfram.com . Recuperado: 9 de diciembre de 2019.
  6. Copia archivada . Consultado el 14 de abril de 2015. Archivado desde el original el 29 de agosto de 2017.

Literatura

Enlaces