Cuando el espacio nulo de una matriz es el vector cero, la matriz es invertible. ¿Por qué?

Para las matemáticas, ver la respuesta de Alexander Farrugia.

No puedo mejorar la respuesta de Alexander, así que en cambio responderé más casualmente.

Piense en la compresión de datos sin pérdida frente a la compresión de datos con pérdida. En la compresión sin pérdidas, puedo recrear los datos originales sin comprimir exactamente. En compresión con pérdida no puedo.

“Transformación inversa” significa una transformación que recupera mi información original. Si mi transformación original no arrojó ninguna información, puedo invertirla. Si lo hizo, no puedo.

Ejemplo:

Por cada dos números [matemática] x, y [/ matemática], registre [matemática] x + y [/ matemática].

¿Puedo recuperar [matemáticas] x = 3 [/ matemáticas] y [matemáticas] y = 7 [/ matemáticas] después de hacer la transformación lineal [matemáticas] x + y = 10 [/ matemáticas]? No. Perdí información. No puedo distinguir entre las transformaciones de x = 3, y = 7 y x = 0, y = 10. Considerado como un algoritmo de compresión con pérdida. Como transformación lineal tiene un espacio nulo unidimensional. De cualquier manera, no se puede invertir. He mapeado toda la línea [matemáticas] x = -y [/ matemáticas] al origen, es el problema.

Tiene que ser un espacio nulo no vacío para afectar la invertibilidad. El origen siempre se asigna al origen, y no pierdo ninguna información de esa manera.

Si la matriz cuadrada [math] A [/ math] tiene un espacio nulo distinto de cero, [math] A [/ math] asigna al menos una dimensión del espacio vectorial transformado al origen. No puedo recuperar esa información del vector transformado. Se fue.

No se trata solo de transformaciones matriciales. No puedo invertir [matemática] ninguna transformación [/ matemática] que pierda información. Esa es también la razón por la cual una matriz [math] 3 \ times 2 [/ math] no tiene una inversa. *

Más ejemplos:

  1. Si proyecta una sombra en una pared, estoy transformando 3 dimensiones en 2. Las distancias a lo largo de la tercera dimensión (fuera de la pared) se pierden. No puedo reconstruir objetos tridimensionales a partir de sus sombras porque la transformación tiene un espacio nulo: la dirección fuera de la pared.
  2. O digamos que señalas alguna posición en una regla, pero estoy viendo la regla con un ojo. No puedo ver a dónde estás apuntando. No puedo recuperar esa información. Tenga en cuenta que tenemos un ojo extra. El segundo ojo elimina ese espacio nulo 1-D a lo largo de la línea de visión del primer ojo.
  3. Mire el mapeo no lineal [math] x \ rightarrow x ^ 2 [/ math]. ¿Puedo invertir eso? No si [math] x [/ math] puede ser cualquier número real. Pierdo el signo, [math] x = 1 [/ math] y [math] x = -1 [/ math] se asignan al mismo [math] x ^ 2 = 1 [/ math]. Eso es lo que hay detrás del “caos determinista”. Tiene un sistema dinámico que pierde información con el tiempo. Por ejemplo, iterar [matemáticas] x \ rightarrow x ^ 2-1 [/ matemáticas] una y otra vez. Puede perder un bit de información [es decir, el signo] en una iteración. Si su conocimiento del estado inicial tenía una precisión finita (digamos 1 parte en mil millones o aproximadamente 30 bits), luego de un tiempo, no tiene información sobre el estado original. (Este ejemplo no es un espacio nulo, es un ejemplo más complicado de una transformación no invertible).
  4. Natalia Nezvanova en este comentario construyó otro ejemplo, lineal pero no representable por una matriz finita. Tome una serie de potencia [matemáticas] a_0 + a_1x + a_2x ^ 2 + a_3x ^ 3 + \ cdots [/ matemáticas], diferencie con respecto a x, luego integre el resultado usando cero como la constante de integración. Terminas reconstruyendo todo excepto el término [math] a_0 [/ math], que cae en el espacio nulo de la derivada. Ese tipo de cosas sucede mucho en las aplicaciones. Por ejemplo, un acelerómetro es un instrumento muy bueno pero no mide la posición inicial ([matemática] a_0 [/ matemática]) o la velocidad inicial ([matemática] a_1 [/ matemática]), solo la aceleración ([matemática] a_2 [ / math]) y términos de orden superior. Intenta reconstruir todo lo mejor que puede integrando dos veces y adivinando los términos que faltan. Y esperas que tu Google Car no pase por encima del buzón de nadie. Mapa de posición y velocidad en el espacio nulo de un acelerómetro.

* No tiene una matriz inversa inversa que funcione en ambas direcciones. Una matriz [matemática] 2 \ veces 3 [/ matemática] puede mapear 2-D a 3-D o 3-D a 2-D. Es posible que pueda ver que solo una de esas transformaciones es realmente irrevocable.

Cualquier matriz real nxn [matemática] \; A \; [/ matemática] define una transformación lineal a partir del espacio euclidiano n dimensional [matemática] ([/ matemática] [matemática] \; \ mathbb {R} ^ {n} \; ) [/ math] a sí mismo dado por [math] \; \ overline {y} = A \ overline {x} \ ;. \;[/matemáticas]

Cualquier transformación lineal de [math] \; \ mathbb {R} ^ {n} \; [/ math] a sí mismo también está en.

Una transformación lineal no puede ser uno solo si lleva vectores distintos de cero a cero, ya que [matemática] \; A \ overline {x} = A \ overline {y} \ Longleftrightarrow A (\ overline {x} – \ overline {y}) = \ overline {0} [/ math]

Por lo tanto, una transformación lineal de [math] \; \ mathbb {R} ^ {n} \; [/ math] a sí misma es una biyección (una y sobre) si el núcleo (espacio nulo) de la transformación es el espacio cero .

En esta situación, el inverso de la transformación lineal existe como una transformación lineal y está representado por la matriz inversa.

(En realidad, todas las propiedades de las matrices cuadradas reales están directamente relacionadas con las propiedades de las transformaciones lineales de [math] \; \ mathbb {R} ^ {n} \; [/ math] a sí mismo).

En términos de matriz, podemos decir que una matriz cuadrada es invertible si el sistema lineal de ecuaciones [matemática] \; A \ overline {x} = \ overline {0} \; [/ math] tiene solo una solución [math ] \; \ overline {x} = \ overline {0} \ ;. [/matemáticas]

es decir, el espacio nulo de la transformación lineal definida por la matriz es el espacio cero.

Gracias por A2A:

Siempre es cierto que 1/0 no está definido, por lo que no puede “invertir” la ecuación [0] x = 1. (Usamos [] para indicar una matriz).

Tenga en cuenta que aquí la matriz 1 x 1 en cuestión es el número cero, y el espacio nulo de la matriz es la dimensión 1, y det ([0]) = 0.

Ahora supongamos que tenemos una matriz [2], entonces det ([2]) = 2> 0, y la matriz es invertible. Ahora tenemos [2] x = 1. La solución es x = 1/2. Como señala la ecuación [2] 0 = 0 es una solución a la segunda ecuación con un nuevo lado derecho y [0] 0 = 0 resuelve la primera ecuación de la misma manera.

Entonces, ¿por qué no es esto “extraño”, por qué el hecho de estar en el espacio nulo no es una contradicción? Simple: el espacio nulo de dimensión cero es siempre un espacio nulo de cada matriz (un punto es un espacio de dimensión cero). Pero eso es simplemente lo mismo que decir 1/0 no está definido. Por lo tanto, es un problema de definición . Para hacer las cosas menos engorrosas, decimos “no tiene espacio nulo” versus “espacio nulo de dimensión cero”. ¡Esto es común en matemáticas, no diferenciamos en lenguaje conjunto vacío de cero a menos que profundicemos en la teoría de conjuntos!

Esta no es una afirmación correcta como demuestran las matrices no cuadradas.

Sin embargo, es cierto para las matrices cuadradas de dimensiones finitas.

La razón de esto es que una matriz [matemática] A \ en Mat (n, K) [/ matemática] representa una función lineal

[matemática] f: V \ a W [/ matemática] con [matemática] V, W [/ matemática] es [matemática] n [/ matemática] -espacios vectoriales dimensionales sobre [matemática] K. [/ matemática]

Ahora el teorema del homomorfismo del álgebra nos dice:

[matemáticas] V / kern (f) \ cong im (f) [/ matemáticas]

Como [math] dim (V) = dim (W) [/ math] nuestra función [math] f [/ math] es precisamente sobreyectiva si [math] kern (f) = \ {0 \} [/ math] que significa Es inyectivo también.

Por lo tanto, nuestra [matemática] f [/ matemática] es invertible y, a cambio, [matemática] A [/ matemática] también.

Estamos hablando de matrices cuadradas de dimensiones [matemáticas] n \ veces n [/ matemáticas] aquí. Si el espacio nulo de la matriz [matemática] A [/ matemática] contiene solo el vector cero, la dimensión de su espacio nulo es cero. Por lo tanto, según el teorema de rango-nulidad, la matriz es rango completo. Por lo tanto, cada vector de columna [math] \ vec {b} [/ math] de dimensión [math] n \ times 1 [/ math] puede representarse como una combinación lineal única de las columnas de [math] A = [\ vec { a} _1, \ vec {a_2}, \ ldots, \ vec {a} _n] [/ math]. En otras palabras, existen escalares únicos [matemática] x_i, i = 1,2, \ ldots, n [/ matemática] tal que [matemática] Ax = \ sum {} \ vec {a} _ix_i = \ vec {b} [ /matemáticas]. Por lo tanto, la matriz es invertible.

Esto no es estrictamente cierto a menos que la matriz sea cuadrada. Por ejemplo, el espacio nulo (derecho) de la matriz [math] \ begin {pmatrix} 1 & 0 \\ 0 & 1 \\ 0 & 0 \ end {pmatrix} [/ math] está vacío, sin embargo, la matriz no está invertible Requerimos que los espacios nulos izquierdo y derecho de una matriz estén vacíos para que una matriz sea invertible. De hecho, el espacio nulo izquierdo de [math] \ begin {pmatrix} 1 & 0 \\ 0 & 1 \\ 0 & 0 \ end {pmatrix} [/ math] no está vacío, porque contiene el vector [math] \ begin {pmatrix} 0 & 0 & 1 \ end {pmatrix} [/ math], por ejemplo.

Con eso fuera del camino, una matriz es invertible si y solo si sus columnas son linealmente independientes y sus filas son linealmente independientes. Una condición necesaria (pero no suficiente) para que esto sea cierto es que la matriz es una matriz cuadrada.

Ahora supongamos que tenemos una matriz [matemática] A [/ matemática] con columnas [matemática] \ begin {pmatrix} a_1 & a_2 & \ cdots & a_n \ end {pmatrix} [/ math] satisfaciendo la relación [matemática] Ax = 0 [/ math] para algunos vectores compatibles [math] x = \ begin {pmatrix} x_1 & x_2 & \ cdots & x_n \ end {pmatrix} ^ T [/ math]. Luego, a partir de las reglas de multiplicación de matrices, [matemáticas] x_1a_1 + x_2a_2 + \ cdots + x_na_n = 0 [/ matemáticas], a menos que [matemáticas] x_1 = x_2 = \ cdots = x_n = 0 [/ matemáticas], las columnas de [ math] A [/ math] no son linealmente independientes y, por lo tanto, [math] A [/ math] no es invertible. Un argumento análogo muestra que si [math] y ^ TA = 0 [/ math] para algún vector compatible [math] y = \ begin {pmatrix} y_1 & y_2 & \ cdots & y_n \ end {pmatrix} ^ T [/ math ], entonces las filas de [math] A [/ math] no son linealmente independientes, por lo que [math] A [/ math] nuevamente no es invertible. Esto completa la prueba.