¿Por qué una matriz tiene que ser cuadrada para obtener una matriz inversa?

Recuerde que una matriz [matemática] A [/ matemática] se dice que es invertible si existe una matriz [matemática] B [/ matemática] tal que [matemática] A \ cdot B = I [/ matemática] y [matemática] B \ cdot A = I [/ math], donde a priori estas matrices de identidad pueden tener diferentes tamaños. Para que esto tenga sentido, si [math] A [/ math] es una matriz [math] n \ times m [/ math], entonces [math] B [/ math] debe ser un [math] m \ times n [/ math] matrix, para que podamos escribir esto como

[matemáticas] A \ cdot B = I_n [/ matemáticas]
[matemáticas] B \ cdot A = I_m [/ matemáticas]

A priori, es posible que esto suceda cuando [math] m \ neq n [/ math], en cuyo caso una matriz no cuadrada tendría un inverso. Sin embargo, esto no es realmente posible. Como no es posible, la condición de invertibilidad a veces se acorta a [matemática] AB = BA = I [/ matemática], como lo ha hecho el usuario @Quora; sin embargo, esta no es la verdadera razón por la cual solo las matrices cuadradas tienen inversas.

Como suele ser el caso con los conceptos de álgebra lineal, es mejor pensar en la inversión de matrices en términos de transformaciones lineales en lugar de matrices. En el lenguaje de las transformaciones lineales, el hecho de que solo las matrices cuadradas sean invertibles es una consecuencia del hecho de que “la dimensión de los espacios vectoriales es invariante bajo las transformaciones lineales invertibles”.

Supongamos que tenemos dos espacios vectoriales de dimensiones finitas [matemática] V [/ matemática] y [matemática] W [/ matemática] y que [matemática] f: V \ a W [/ matemática] es una transformación lineal. Entonces las siguientes tres cosas son equivalentes:

  1. [math] f [/ math] es uno a uno y en: para cada vector [math] w \ in W [/ math] existe un [math] v \ in V [/ math] único con [math] f (v) = w [/ matemáticas].
  2. Existe una transformación lineal inversa [matemática] g: W \ a V [/ matemática] a [matemática] f [/ matemática], es decir, [matemática] g \ circ f = \ matemática {id} _V [/ matemática] y [ math] f \ circ g = \ mathrm {id} _W [/ math].
  3. Después de elegir las bases para [matemática] V [/ matemática] y [matemática] W [/ matemática], la matriz que representa [matemática] f [/ matemática] es invertible.

Estas equivalencias son fáciles de ver. La condición 1 implica la condición 2, ya que podemos definir [matemáticas] g [/ matemáticas] como la función inversa [matemáticas] f ^ {- 1} [/ matemáticas], y luego resulta que [matemáticas] g [/ matemáticas] En realidad es lineal. En la dirección opuesta, la condición 2 implica la condición 1, ya que [matemática] g \ circ f = \ mathrm {id} _V [/ matemática] implica que [matemática] f [/ matemática] es uno a uno y [matemática] f \ circ g = \ mathrm {id} _W [/ math] implica que [math] f [/ math] está en. La condición 2 implica la condición 3, ya que la matriz correspondiente a [matemáticas] f [/ matemáticas] tiene la matriz correspondiente a [matemáticas] g [/ matemáticas] como su inverso; por el contrario, si la matriz correspondiente a [math] f [/ math] tiene una matriz inversa, entonces la transformación lineal correspondiente a esa matriz será una transformación lineal inversa a [math] f [/ math].

Una transformación lineal que satisface cualquiera de las 3 condiciones equivalentes anteriores a menudo se denomina isomorfismo .

Volviendo a la Tierra un poco, supongamos que tenemos una matriz [matemática] n \ veces m [/ matemática] [matemática] A [/ matemática] que admite un inverso. La transformación lineal correspondiente [math] f: \ mathbb {R} ^ m \ to \ mathbb {R} ^ n [/ math] es uno a uno y en.

Reclamación: Si [math] f: V \ to W [/ math] es uno a uno y en transformación lineal, entonces [math] \ dim V = \ dim W [/ math].

En otras palabras, la dimensión es un isomorfismo invariante.

Como la dimensión de [math] \ mathbb {R} ^ n [/ math] es [math] n [/ math], esto implicará que [math] n = m [/ math] siempre que [math] A [/ math ] es una matriz invertible [matemática] n \ veces m [/ matemática].

Prueba de reclamación: si [math] \ {e_1, \ ldots, e_m \} [/ math] es una base para [math] V [/ math] entonces [math] \ {f (e_1), \ ldots, f ( e_m) \} [/ math] es una base para [math] W [/ math].

De hecho, el conjunto [math] \ {f (e_1), \ ldots, f (e_m) \} [/ math] es linealmente independiente ya que [math] f [/ math] es una relación uno a uno, cualquier relación

[matemáticas] a_1f (e_1) + a_2f (e_2) + \ cdots + a_mf (e_m) = 0 [/ matemáticas]

se puede reorganizar a

[matemáticas] f (a_1e_1 + a_2e_2 + \ cdots + a_me_m) = 0 = f (0) [/ matemáticas]

por linealidad, que luego obliga

[matemáticas] a_1e_1 + \ cdots + a_m e_m = 0, [/ matemáticas]

dado que [math] f [/ math] es uno a uno, dando [math] a_i = 0 [/ math] para todos [math] i [/ math] desde [math] e_1, \ ldots, e_m [/ math ] son ​​una base para [matemáticas] V [/ matemáticas].

Por otro lado, [math] \ {f (e_1), \ ldots, f (e_m) \} [/ math] abarca [math] W [/ math]. Como [math] f [/ math] está activado, para cualquier [math] w \ en W [/ math] podemos encontrar algunos [math] v \ en V [/ math] con [math] f (v) = w . [/ math] Entonces podemos escribir

[matemáticas] v = a_1e_1 + \ cdots + a_m e_m [/ matemáticas]

y por lo tanto

[matemáticas] w = f (v) = a_1f (e_1) + \ cdots + a_mf (e_m) [/ matemáticas]

por linealidad.

Por lo tanto, tanto [math] V [/ math] como [math] W [/ math] son ​​[math] m [/ math] -dimensional. [matemáticas] \ Box [/ matemáticas]

Una matriz m-by-n codifica una transformación del espacio n-dimensional al espacio m-dimensional, y una inversa de una matriz es algo que deshace esta transformación. Obviamente, si tomamos un espacio de dimensiones superiores y proyectamos en un espacio de dimensiones inferiores, estamos perdiendo información, lo que hace imposible reconstruir la información original de dimensiones superiores. Sería como tratar de hacer una estatua 100% precisa de alguien mirando una foto de su sombra (que literalmente podrías hacer, si las matrices 2 × 3 fueran invertibles).

Bueno, ¡algunas matrices no cuadradas tienen inversas! Las matrices con columnas linealmente independientes tienen inversas izquierdas, y las matrices con filas linealmente independientes tienen inversas derechas. Puede calcular inversas derecha o izquierda con ayuda de la factorización QR en Matlab. ¿Ves los comentarios en la respuesta de Martin Berggren a izquierda y derecha inversa? Una matriz cuadrada puede tener un inverso izquierdo o derecho, pero ¿qué queremos decir con inverso izquierdo y derecho?

El inverso de una matriz A viene dado por Adjoint (A) / determinante (A). El determinante solo se define para matrices cuadradas.
Sin embargo, una matriz no cuadrada puede tener un psuedoinverso, es decir, un inverso a la izquierda o un inverso a la derecha: http://en.wikipedia.org/wiki/Gen… . Vea el pseudoinverso de matriz de Moore-Penrose para obtener una forma aproximada de calcular el pseudoinverso de una matriz no cuadrada.