¿Qué intuiciones sobre el álgebra lineal necesito descartar cuando el espacio vectorial está sobre un campo de característica finita?

La intuición es una guía peligrosa cuando se profundiza en los bosques de la abstracción. Aquí hay algunas trampas, algunas simples, algunas profundas.

([math] V [/ math] es un espacio vectorial sobre un campo [math] F [/ math]. Las letras [math] u, v, w [/ math] denotan vectores, es decir, simplemente elementos de [math] V [/matemáticas].)


Si [matemática] v \ neq 0 [/ matemática] entonces [matemática] v + v \ neq 0 [/ matemática]. ¿Derecho? Bueno, sí, excepto si [matemáticas] F [/ matemáticas] tiene la característica 2. En particular, si [matemáticas] F [/ matemáticas] es un campo finito de orden 2, 4, 8, 16, etc., entonces la conclusión es falsa . Entonces, la intuición geométrica de que “duplicar un vector no puede hacer que desaparezca” es falsa.


Si [math] u, v, w [/ math] son ​​linealmente independientes, ¿eso significa que [math] u + v, u + w, v + w [/ math] también son linealmente independientes? Puede sentir que esto es intuitivamente cierto, y que la intuición es correcta, excepto , una vez más, cuando [math] F [/ math] tiene la característica 2. Ejercicio : encuentre un contraejemplo.


Si [math] V [/ math] es un espacio vectorial de dimensión finita, ¿se pueden encontrar finitamente muchos subespacios adecuados [math] U_1, U_2, \ ldots U_m [/ math] de modo que cada vector [math] v \ in V [ / math] pertenece a uno de esos subespacios?

Si piensa en líneas y planos en un espacio tridimensional, por ejemplo, la respuesta es claramente No. Los subespacios son “delgados”: no tienen interior, ni volumen, ni sustancia, y la unión de muchos de ellos todavía es delgada. . Incluso si tiene mil millones de aviones, debe haber un punto, un vector, que los pierda a todos.

Claramente, esta intuición se rompe cuando el campo subyacente es finito.

Ejercicio fácil : explica por qué.

Problema divertido que es más difícil de lo que piensas : prueba que si [matemática] F [/ matemática] es infinita, entonces un espacio vectorial de dimensión finita sobre [matemática] F [/ matemática] no es la unión de muchos subespacios adecuados.

(Una vez planteé esto como un rompecabezas para Noga Alon. Inmediatamente lo vio y declaró la idea clave, y siguió adelante con una ejecución simple y elegante. Todo el asunto tomó menos de diez segundos).


La identidad

[matemáticas] \ | u + v \ | ^ 2 = \ | u \ | ^ 2 + \ | v \ | ^ 2 + 2 \ langle u, v \ rangle [/ math]

es fácil de probar y agradable de visualizar en cualquier espacio interno del producto. Reorganizado, nos permite reconstruir mágicamente un producto interno dado solo la norma de cada vector; de hecho, esto es tan algebraicamente sencillo que funciona en un entorno mucho más general de formas bilineales simétricas y sus formas cuadráticas asociadas.

¿Pero ves el “2” a la derecha? Si desea resolver el producto interno, tendrá que dividirlo, lo cual está bien …

… Excepto si la característica es 2. En ese caso, las formas simétricas y las formas cuadráticas son cosas muy diferentes, y la distinción tiene profundas implicaciones (teoría L).


El último ejemplo que mencionaré no es exactamente intuitivo, pero es importante. Si tenemos un grupo de transformaciones lineales de un espacio a sí mismo, podemos usar una operación de promedio para producir subespacios completos invariantes para cualquier subespacio invariante dado.

Esta es una construcción clave en la teoría de la representación, pero se rompe cuando la característica del campo nos impide promediar: el problema es cuando tratamos de dividir por el número de transformaciones. Si el campo base tiene la característica 7 y hay 28 transformaciones, no podemos formar un promedio porque no podemos dividir por 28.

Este “tecnicismo” crea todo el campo de las representaciones modulares.


Moraleja: el álgebra lineal sobre campos finitos (o campos de características finitas) puede ser un poco complicado, y es más complicado cuando la característica es 2.

Hay una gran diferencia (que se me ocurre) entre los campos finitos [math] \ mathbb {F} _ {p ^ r} [/ math] y [math] \ mathbb {C} [/ math] (en algunos sentido, los espacios vectoriales complejos son más naturales para trabajar con los espacios vectoriales reales, pero eso es una discusión para otro momento).

El problema es que los campos finitos no están cerrados algebraicamente (de hecho, en el caso de [math] \ mathbb {F} _2 [/ math], la ecuación [math] X ^ 2 + X + 1 = 0 [/ math] tiene sin soluciones) Esto es importante por al menos dos razones:

1. Si tiene un polinomio característico de una matriz, ya no está garantizado que pueda encontrar todas sus raíces, y debido a esto:

2. No puede aplicar la forma normal de Jordan. Tienes que usar una generalización, la descomposición Jordan-Chevalley.

Sin embargo, la noción de independencia lineal sigue siendo la misma. Resolver ecuaciones lineales todavía funciona de la misma manera. La eliminación gaussiana todavía funciona bien (esta es una muy grande, en realidad, ya que puedes usarla para resolver ecuaciones, encontrar inversas, obtener descomposiciones LU, etc.).

Entonces, supongo que lo que diría es que las intuiciones son esencialmente las mismas. Sin embargo, es posible que los algoritmos particulares que desee aplicar no funcionen; debe verificar que no asuman el cierre algebraico y que no asuman que puede dividir entre 2 (en el caso de [math] \ mathbb { F} _2 [/ matemáticas]).