¿Cuál es tu teorema favorito en álgebra lineal?

Para el nivel de conocimiento proporcionado y su utilidad general, solo tiene que ser el teorema espectral. [1]

Además de la utilidad de poder diagonalizar una matriz, también nos muestra que las matrices definidas con una base propia común son realmente una generalización de los números reales.

También me fascinan los vectores antieigen y los valores antieigen [2], un campo que Karl Gustafson [3] parece haber tallado casi con una sola mano. Además del hecho interesante de que los primeros incluyen los vectores para los que se alcanza la igualdad en la desigualdad de Kantorovich [4], que es esencialmente una versión matricial de la desigualdad AM-GM y tan útil que se ha redescubierto decenas de veces de forma independiente. aún no he encontrado una aplicación para ellos (pero vivo con esperanza).

Notas al pie

[1] Teorema espectral – Wikipedia

[2] http://masseyblogs.ac.nz/jhunter…

[3] Karl Gustafson

[4] Desigualdad de Kantorovich – Wikipedia

Mi par de resultados favoritos del álgebra lineal es que los espacios vectoriales de dimensiones finitas admiten descomposiciones primarias y descomposiciones cíclicas en relación con los operadores lineales que actúan sobre ellas.

Suponga que [math] T: V \ to V [/ math] es un operador lineal que actúa en un espacio vectorial de dimensión finita [math] V [/ math] sobre un campo [math] \ mathbb {F} [/ math] . Deje [math] S [/ math] denotar el conjunto de factores irreducibles del polinomio mínimo [math] p_ {T} (x) [/ math] de [math] T [/ math] sobre [math] \ mathbb {F } [x] [/ matemáticas]. Entonces:

  • [matemática] V [/ matemática] admite la descomposición de suma directa [matemática] V = \ bigoplus \ limits_ {q (x) \ in S} \ operatorname {ker} \ left (q (T) \ right) ^ {\ operatorname {dim} (V)} [/ math],

    conocida como la descomposición primaria de [matemáticas] V [/ matemáticas] en relación con [matemáticas] T [/ matemáticas].

  • Hay una secuencia única de polinomios [math] \ {f_ {k} (x): 1 \ leq k \ leq n \} [/ math] para algunos [math] n \ in \ mathbb {N} [/ math] tal que:
  • [matemáticas] f_ {1} (x) = p_ {T} (x) [/ matemáticas].
  • [math] f_ {k + 1} (x) [/ math] divide [math] f_ {k} (x) [/ math] para todos [math] 1 \ leq k
  • [matemáticas] V [/ matemáticas] admite la descomposición cíclica

    [matemáticas] V = \ bigoplus \ limits_ {k = 1} ^ {n} Z (T; v_ {k}) = \ bigoplus \ limits_ {k = 1} ^ {n} \ operatorname {span} \ {v_ { k}, T (v_ {k}), T ^ {2} (v_ {k}), \ cdots \} [/ math]

    para algunos [math] \ {v_ {k}: 1 \ leq k \ leq n \} \ subseteq V [/ math] tal que el polinomio mínimo relativo de [math] v_ {k} [/ math] es [math] f_ {k} (x) [/ math] para todos [math] 1 \ leq k \ leq n [/ math].

Este par de resultados se puede utilizar para establecer posteriormente que, por ejemplo, cada matriz cuadrada (con entradas en un campo) es similar a una matriz en forma canónica racional mínima / máxima, un resultado en álgebra lineal que también encuentro útil e interesante.

Considere alguna matriz [matemática] A [/ matemática] que es [matemática] n \ veces n [/ matemática]. Entonces sí

[matemática] N (A) = \ {x: Ax = 0 \} [/ matemática] es el espacio nulo de A y [matemática] R (A) = \ {y: y = Ax, \ text {para algunos} x \ in \ mathbb {R} ^ n \} [/ math], entonces:

[math] \ mathrm {dim} (N (A)) + \ mathrm {dim} (R (A)) = n \ tag {1}. [/ math]

¿No es eso genial?

Bueno, todavía no he estudiado mucho álgebra lineal.

Solo un poco de las pocas páginas de un libro de texto ruso de ingeniería matemática.

Por lo tanto, mi elección es limitada. Ahora volvamos a la pregunta.

Teorema:

En un espacio vectorial n- dimensional, cualquier sistema de m vectores tal que m> n dependa linealmente.

En realidad, es suficiente considerar el caso [math] m = (n + 1) [/ math]: –

  1. Suponga que los vectores en contexto son [matemática] \ vec {x_ {1}}, \ vec {x_ {2}} \ cdots \ space (i = 1,2 \ cdots (n + 1)) [/ math]
  2. La base se compone de [matemáticas] \ vec {e_ {1}} [/ matemáticas], [matemáticas] \ vec {e_ {2}} [/ matemáticas], [matemáticas] \ cdots \ vec {e_ {n}} [/ matemáticas]

Ahora expresemos cada vector en términos de la base:

[matemáticas] x _ {(1)} = {\ alpha_ {1}} ^ {1} \ vec {e_ {1}} + {\ alpha_ {1}} ^ {2} \ vec {e_ {2}} + \ cdots {\ alpha_ {1}} ^ {n} \ vec {e_ {n}} [/ math]

[matemáticas] x _ {(2)} = {\ alpha_ {2}} ^ {1} \ vec {e_ {1}} + {\ alpha_ {2}} ^ {2} \ vec {e_ {2}} + \ cdots {\ alpha_ {2}} ^ {n} \ vec {e_ {n}} [/ math]

[matemáticas] \ cdots [/ matemáticas]

[matemáticas] x _ {(n + 1)} = {\ alpha_ {n + 1}} ^ {1} \ vec {e_ {1}} + {\ alpha_ {n + 1}} ^ {2} \ vec { e_ {2}} + \ cdots {\ alpha_ {n + 1}} ^ {n} \ vec {e_ {n}} [/ math]

Espero que la notación sea clara : ahora los organizaría en una matriz de tal manera que la columna [math] i [/ math] contenga los componentes del vector [math] x_ {i} [/ math]

[matemáticas] S = \ begin {pmatrix} {\ alpha_ {1}} ^ {1} & {\ alpha_ {2}} ^ {1} \ cdots {\ alpha_ {n + 1}} ^ {1} \\ {\ alpha_ {1}} ^ {2} y {\ alpha_ {2}} ^ {2} \ cdots {\ alpha_ {n + 1}} ^ {2} \\ \ cdots \ cdots \\ {\ alpha_ { 1}} ^ {n} y {\ alpha_ {2}} ^ {n} \ cdots {\ alpha_ {n + 1}} ^ {n} \ end {pmatrix} [/ math]

Ahora recuerde: ¿cómo encontramos el número de columnas / filas linealmente independientes en una matriz?

Al calcular su rango [matemáticas]. [/ Matemáticas]

Pero dado que el rango no puede exceder el número de filas [matemáticas] n [/ matemáticas], el número de vectores de columna linealmente independientes no puede exceder [matemáticas] n [/ matemáticas]

Así

[matemáticas] \ vec {x_ {1}}, \ vec {x_ {2}} \ cdots, \ vec {x_ {n + 1}} \ cdots [/ math] dependen linealmente.

Mi prueba está completa.

Ahora, ¿por qué este teorema es mi favorito?

  1. No he estudiado mucho álgebra lineal, así que no puedo entender los teoremas que no he encontrado que podrían convertirse en uno de mis favoritos algún día.
  2. La prueba es corta y simple.
  3. Como corolario, este teorema muestra que todas las bases en un espacio vectorial deberían tener igual Número de vectores.
  4. Esto pone una especie de relación restringida en una colección aleatoria de vectores tomados en un espacio vectorial.

PD: escribí esta respuesta desde mi móvil, por lo que hay muchas posibilidades de error.

Referencia:

Rango (álgebra lineal) – Wikipedia

(Un uso frecuente) Teorema: si [matemáticas] A [/ matemáticas] y [matemáticas] B [/ matemáticas] son ​​matrices cuadradas y [matemáticas] AB = I [/ matemáticas] (la matriz de identidad) entonces [matemáticas] BA = I. [/ matemáticas]

O, la misma declaración en una forma libre de coordenadas: si una transformación lineal [matemática] T: V \ flecha derecha V [/ matemática] de un espacio vectorial de dimensión finita [matemática] V [/ matemática] es invertible a la derecha, también es invertible a la izquierda y las dos inversas son iguales.

El problema es que este teorema no es cierto para espacios vectoriales de dimensiones infinitas: hay contraejemplos fáciles.

En la enseñanza de pregrado, este teorema fundamental casi nunca se prueba adecuadamente, y la diferencia de espacios vectoriales de dimensiones finitas e infinitas casi nunca se explica.

Éste:

Tome [math] V [/ math] un espacio vectorial real o complejo de dimensión finita, y [math] v \ in \ mathcal {L} (V) [/ math] un mapa lineal.

Entonces [matemáticas] \ mu_v | \ chi_v [/ matemáticas]

Esto se conoce como el teorema de Cayley-Hamilton.

El teorema espectral para espacios Pre-Hilbert también es genial

Mi favorito es: teorema de Cayley-Hamilton – Wikipedia

La integridad de una base para un espacio vectorial de dimensiones infinitas.