Cómo demostrar que la matriz A es invertible si Det (A) no es igual a 0

A2A, gracias.

Intuitivamente, el determinante de una transformación A es el factor por el cual A cambia el volumen del cubo unitario atravesado por los vectores base. Si A asigna la base a un conjunto de vectores linealmente dependientes, entonces el volumen del cubo transformado es cero. Por el contrario, el volumen del cubo transformado no puede ser cero sin que A asigne la base a un conjunto de vectores linealmente dependientes.

Sin embargo…

Hacer la prueba que está preguntando sobre esto con matrices, y definir el determinante en términos de un procedimiento computacional con elementos matriciales, es opaco y extremadamente ineficaz en términos de enseñanza de la asignatura.

En cambio, aprenda la definición de un determinante en términos de transfomaciones lineales y el mapa multilineal alterno – Wikipedia (ver Transformaciones lineales finito-dimensionales de P. Halmos, el único autor que recomiendo para aprender álgebra lineal). En el artículo vinculado, verá, entre las propiedades de formas alternativas, que si los argumentos de esa forma son linealmente dependientes, entonces la forma es cero. Bueno, en coordenadas, los argumentos son las columnas de la matriz, y el determinante es el valor de la forma alterna.

Este es un resultado directo del teorema de la matriz invertible. Así que puedes citar ese teorema o probarlo directamente a partir de las definiciones.

Aquí hay un boceto.

A es invertible si se puede expresar como el producto de matrices elementales (Específicamente es el producto de matrices elementales correspondientes a las operaciones de fila elemental utilizadas para reducirlo a la matriz de identidad).

Entonces dejemos que [math] A = E_1 E_2 … E_k [/ math] con [math] E_i [/ ​​math] matrices elementales. Por la propiedad multiplicativa del determinante obtenemos

[matemáticas] \ det (A) = \ det (E_1 E_2… E_k) = \ det (E_1) \ det (E_2) \ dots \ det (E_k) [/ math]

Las matrices elementales tienen determinantes distintos de cero. Entonces det (A) es el producto de números distintos de cero, por lo tanto, es distinto de cero.

Supongamos que solo conoce algunos conceptos básicos como:

  • Los vectores de columna de [math] A [/ math] son ​​linealmente independientes, es equivalente a [math] A [/ math] tiene un inverso.
  • [math] det (A) [/ math] está definido por la fórmula de Leibniz Leibniz formula para determinantes – Wikipedia

Tenga en cuenta que si los vectores de columna de A son linealmente dependientes, entonces por definición [matemática] det (A) = 0 [/ matemática] [por si acaso, una prueba rápida está debajo]

Por lo tanto

[math] det (A) \ neq 0 \ Rightarrow A [/ math] son ​​linealmente independientes

Por lo tanto, A es invertible.

——————————————————

Prueba rápida [matemática] det (A) = 0 [/ matemática] si los vectores de columna dependen linealmente:

Mediante la inspección en la fórmula de Leibniz, si toma una matriz A y cambia cualquiera de los dos vectores de columna para formar B, los términos en la suma siguen siendo los mismos, excepto el signo debido a que la permutación es negativa. (esto es equivalente a cambiar dos etiquetas en la versión Levi-Civita de la fórmula, lo que induce un cambio de signo)

[matemáticas] det (A) = -det (B) [/ matemáticas]

Si la matriz [matemática] A [/ matemática] tiene dos vectores de columna linealmente dependientes [matemática] a ‘[/ matemática] y [matemática] a’ ‘[/ matemática] que difieren en una constante multiplicativa [matemática] c [/ matemática] (es decir, [math] a ‘= c \ cdot a’ ‘[/ math]). Sustituya [math] a ‘[/ math] por [math] a’ ‘[/ math] para hacer una matriz [math] B [/ math]. Uno encuentra que [matemática] det (A) = c \ cdot det (B [/ matemática]). Sin embargo, dado que ahora podemos intercambiar dos vectores de columna idénticos en [matemática] B [/ matemática] y recuperar [matemática] B [/ matemática], tenemos [matemática] det (B) = -det (B) \ Rightarrow det (B) = 0 \ Rightarrow det (A) = 0 [/ math]