Recuerde que una matriz [matemática] A [/ matemática] se dice que es invertible si existe una matriz [matemática] B [/ matemática] tal que [matemática] A \ cdot B = I [/ matemática] y [matemática] B \ cdot A = I [/ math], donde a priori estas matrices de identidad pueden tener diferentes tamaños. Para que esto tenga sentido, si [math] A [/ math] es una matriz [math] n \ times m [/ math], entonces [math] B [/ math] debe ser un [math] m \ times n [/ math] matrix, para que podamos escribir esto como
[matemáticas] A \ cdot B = I_n [/ matemáticas]
[matemáticas] B \ cdot A = I_m [/ matemáticas]
A priori, es posible que esto suceda cuando [math] m \ neq n [/ math], en cuyo caso una matriz no cuadrada tendría un inverso. Sin embargo, esto no es realmente posible. Como no es posible, la condición de invertibilidad a veces se acorta a [matemática] AB = BA = I [/ matemática], como lo ha hecho el usuario @Quora; sin embargo, esta no es la verdadera razón por la cual solo las matrices cuadradas tienen inversas.
Como suele ser el caso con los conceptos de álgebra lineal, es mejor pensar en la inversión de matrices en términos de transformaciones lineales en lugar de matrices. En el lenguaje de las transformaciones lineales, el hecho de que solo las matrices cuadradas sean invertibles es una consecuencia del hecho de que “la dimensión de los espacios vectoriales es invariante bajo las transformaciones lineales invertibles”.
- ¿Se utilizan Jordan Normal Form y Dual Spaces en las estadísticas?
- ¿Qué tipo de matemática se necesita saber para comprender mejor la neurociencia?
- ¿Cómo se usan exactamente los vectores en inteligencia artificial?
- ¿Qué es una matriz inversa?
- ¿Cuáles son las aplicaciones más sorprendentes del álgebra lineal?
Supongamos que tenemos dos espacios vectoriales de dimensiones finitas [matemática] V [/ matemática] y [matemática] W [/ matemática] y que [matemática] f: V \ a W [/ matemática] es una transformación lineal. Entonces las siguientes tres cosas son equivalentes:
- [math] f [/ math] es uno a uno y en: para cada vector [math] w \ in W [/ math] existe un [math] v \ in V [/ math] único con [math] f (v) = w [/ matemáticas].
- Existe una transformación lineal inversa [matemática] g: W \ a V [/ matemática] a [matemática] f [/ matemática], es decir, [matemática] g \ circ f = \ matemática {id} _V [/ matemática] y [ math] f \ circ g = \ mathrm {id} _W [/ math].
- Después de elegir las bases para [matemática] V [/ matemática] y [matemática] W [/ matemática], la matriz que representa [matemática] f [/ matemática] es invertible.
Estas equivalencias son fáciles de ver. La condición 1 implica la condición 2, ya que podemos definir [matemáticas] g [/ matemáticas] como la función inversa [matemáticas] f ^ {- 1} [/ matemáticas], y luego resulta que [matemáticas] g [/ matemáticas] En realidad es lineal. En la dirección opuesta, la condición 2 implica la condición 1, ya que [matemática] g \ circ f = \ mathrm {id} _V [/ matemática] implica que [matemática] f [/ matemática] es uno a uno y [matemática] f \ circ g = \ mathrm {id} _W [/ math] implica que [math] f [/ math] está en. La condición 2 implica la condición 3, ya que la matriz correspondiente a [matemáticas] f [/ matemáticas] tiene la matriz correspondiente a [matemáticas] g [/ matemáticas] como su inverso; por el contrario, si la matriz correspondiente a [math] f [/ math] tiene una matriz inversa, entonces la transformación lineal correspondiente a esa matriz será una transformación lineal inversa a [math] f [/ math].
Una transformación lineal que satisface cualquiera de las 3 condiciones equivalentes anteriores a menudo se denomina isomorfismo .
Volviendo a la Tierra un poco, supongamos que tenemos una matriz [matemática] n \ veces m [/ matemática] [matemática] A [/ matemática] que admite un inverso. La transformación lineal correspondiente [math] f: \ mathbb {R} ^ m \ to \ mathbb {R} ^ n [/ math] es uno a uno y en.
Reclamación: Si [math] f: V \ to W [/ math] es uno a uno y en transformación lineal, entonces [math] \ dim V = \ dim W [/ math].
En otras palabras, la dimensión es un isomorfismo invariante.
Como la dimensión de [math] \ mathbb {R} ^ n [/ math] es [math] n [/ math], esto implicará que [math] n = m [/ math] siempre que [math] A [/ math ] es una matriz invertible [matemática] n \ veces m [/ matemática].
Prueba de reclamación: si [math] \ {e_1, \ ldots, e_m \} [/ math] es una base para [math] V [/ math] entonces [math] \ {f (e_1), \ ldots, f ( e_m) \} [/ math] es una base para [math] W [/ math].
De hecho, el conjunto [math] \ {f (e_1), \ ldots, f (e_m) \} [/ math] es linealmente independiente ya que [math] f [/ math] es una relación uno a uno, cualquier relación
[matemáticas] a_1f (e_1) + a_2f (e_2) + \ cdots + a_mf (e_m) = 0 [/ matemáticas]
se puede reorganizar a
[matemáticas] f (a_1e_1 + a_2e_2 + \ cdots + a_me_m) = 0 = f (0) [/ matemáticas]
por linealidad, que luego obliga
[matemáticas] a_1e_1 + \ cdots + a_m e_m = 0, [/ matemáticas]
dado que [math] f [/ math] es uno a uno, dando [math] a_i = 0 [/ math] para todos [math] i [/ math] desde [math] e_1, \ ldots, e_m [/ math ] son una base para [matemáticas] V [/ matemáticas].
Por otro lado, [math] \ {f (e_1), \ ldots, f (e_m) \} [/ math] abarca [math] W [/ math]. Como [math] f [/ math] está activado, para cualquier [math] w \ en W [/ math] podemos encontrar algunos [math] v \ en V [/ math] con [math] f (v) = w . [/ math] Entonces podemos escribir
[matemáticas] v = a_1e_1 + \ cdots + a_m e_m [/ matemáticas]
y por lo tanto
[matemáticas] w = f (v) = a_1f (e_1) + \ cdots + a_mf (e_m) [/ matemáticas]
por linealidad.
Por lo tanto, tanto [math] V [/ math] como [math] W [/ math] son [math] m [/ math] -dimensional. [matemáticas] \ Box [/ matemáticas]