¿Cuál es la relación de una inversión de matriz y valores propios?

Si una matriz [matemática] M [/ matemática] es diagonalizable, entonces [matemática] M = P \ Lambda P ^ {- 1} [/ matemática], donde [matemática] \ Lambda [/ matemática] es la matriz diagonal cuya diagonal las entradas son los valores propios de [math] M [/ math] y [math] P [/ math] es la matriz cuyas columnas son los vectores propios de [math] M [/ math]. Entonces tenemos

[matemáticas] M ^ {- 1} = (P \ Lambda P ^ {- 1}) ^ {- 1} = (P ^ {- 1}) ^ {- 1} \ Lambda ^ {- 1} P ^ { -1} = P \ Lambda ^ {- 1} P ^ {- 1} [/ math]

donde [math] \ Lambda ^ {- 1} [/ math] es la matriz diagonal cuyas entradas diagonales son los recíprocos de los valores propios de [math] M [/ math]. Tenga en cuenta que, como corolario, [math] M ^ {- 1} [/ math] existe si y solo si ninguno de los valores propios de [math] M [/ math] es cero.

Otra relación entre la inversión de la matriz y los valores propios es la siguiente. Deje que [math] M [/ math] sea cualquier matriz cuadrada y [math] p (x) = a_nx ^ n + a_ {n-1} x ^ {n-1} + \ cdots + a_1x + a_0 [/ math] ser el polinomio característico de [math] M [/ math] (cuyas raíces son los valores propios de [math] M [/ math]). Luego, según el teorema de Cayley-Hamilton, tenemos

[matemáticas] a_nM ^ n + a_ {n-1} M ^ {n-1} + \ cdots + a_1M + a_0I = 0. [/ matemáticas]

Si [math] M ^ {- 1} [/ math] existe, entonces

[matemáticas] a_nM ^ {n-1} + a_ {n-1} M ^ {n-2} + \ cdots + a_1I + a_0M ^ {- 1} = 0 [/ matemáticas]

entonces

[matemáticas] M ^ {- 1} = – \ frac {1} {a_0} (a_nM ^ {n-1} + a_ {n-1} M ^ {n-2} + \ cdots + a_1I). [/ matemáticas]

Tenga en cuenta que [math] M ^ {- 1} [/ math] existe si y solo si [math] a_0 \ ne 0 [/ math]. Como [math] a_0 = (- 1) ^ n \ det (M) [/ math], esto es equivalente a indicar el resultado bien conocido de que [math] M ^ {- 1} [/ math] existe si y solo si [matemática] \ det (M) \ ne 0 [/ matemática].

Gracias por el A2A …

Valores propios y el inverso de una matriz

Si tomamos la definición canónica de vectores propios y valores propios para una matriz, [math] M [/ math], y asumimos además que [math] M [/ math] es invertible, entonces existe, [math] M ^ {- 1 } [/ math] tal que [math] MM ^ {- 1} = M ^ {- 1} M = I [/ math], entonces podemos ver que:

[matemáticas] M \ textbf v = \ lambda \ textbf v [/ math]

Multiplica ambos lados por [matemática] M ^ {- 1} [/ matemática]:

[matemáticas] M ^ {- 1} M \ textbf v = \ lambda M ^ {- 1} \ textbf v [/ math]

Entonces:

[matemáticas] \ textbf v = \ lambda M ^ {- 1} \ textbf v [/ matemáticas]

Que podemos reorganizar como:

[matemáticas] \ displaystyle \ frac {1} {\ lambda} \ textbf v = M ^ {- 1} \ textbf v [/ math]

Lo que implica que [math] \ textbf v [/ math] también es un vector propio de [math] M ^ {- 1} [/ math] con eigenvalue [math] \ displaystyle \ frac {1} {\ lambda} [/ math ]

En general, si los valores propios de una matriz invertible [matemática] n \ veces n [/ matemática], [matemática] M [/ matemática], son [matemática] \ lambda_1, \ lambda_2, \ ldots, \ lambda_n [/ matemática] , entonces los valores propios de [math] M ^ {- 1} [/ math] son ​​[math] \ displaystyle \ frac {1} {\ lambda_1}, \ frac {1} {\ lambda_2}, \ ldots, \ frac { 1} {\ lambda_n} [/ math].

Extraído de: Glimpses of Symmetry , Capítulo 17 – Matrices Redux .

Considere alguna matriz A con el vector propio v y el valor propio c. Sabemos que Av = cv.

Multiplicando ambos lados por A ^ -1, obtenemos

v = A ^ -1 cv

Dividiendo ambos lados por c obtenemos

(1 / c) v = A ^ -1 v

En otras palabras, si (v, c) es un par vector propio / valor para A, (v, 1 / c) es un par para el inverso de A.

Dicho de otra manera, una matriz y sus vectores propios comparten inversamente, pero su valor propio son inversos entre sí.