Si A puede descomponerse en SDS ^ -1, donde D es una matriz diagonal, ¿puede D contener números distintos de los valores propios de A?

Un valor propio [matemática] \ lambda [/ matemática] de una matriz diagonalizable [matemática] A [/ matemática] satisface [matemática] (A – \ lambda I) x = 0 [/ matemática] para algún vector distinto de cero [matemática] x [ /matemáticas].
[matemáticas] (A – \ lambda I) x = (SDS ^ {- 1} – \ lambda I) x [/ matemáticas]
[matemáticas] = S (D – \ lambda S ^ {- 1} IS) S ^ {- 1} x [/ matemáticas]
[matemáticas] = S (D – \ lambda I) S ^ {- 1} x [/ matemáticas]
[matemática] = S (D – \ lambda I) y = 0 [/ matemática] donde [matemática] y = S ^ {- 1} x [/ matemática] no es cero ya que [matemática] S ^ {- 1} [/ math] no es singular y [math] x [/ math] es distinto de cero. Debido a que [math] S [/ math] es no singular, esto implica [math] (D- \ lambda I) y = 0 [/ math] así que si [math] \ lambda [/ math] es un valor propio de [math] A [/ math], también debe ser uno de [math] D [/ math]. Al invertir estos pasos, puede mostrar cualquier valor propio de [math] D [/ math] también debe ser un valor propio de [math] A [/ math]. Esto significa que [matemáticas] A [/ matemáticas] y [matemáticas] D [/ matemáticas] tienen los mismos conjuntos de valores propios. Entonces, ¿puede [math] D [/ math] tener entradas diagonales que no sean valores propios? ¡No! Esto es bastante sencillo, pero vea la respuesta de Mo Ka para más detalles.

Suponiendo que [math] S [/ math] es una matriz invertible (de lo contrario, no estoy seguro de cómo interpretar la pregunta). Suponga por contradicción que la entrada [math] d_ {ii} [/ math] no es un valor propio de [math] A = SDS ^ {- 1} [/ math]. Defina [math] e_i [/ ​​math] como el vector que tiene [math] 0 [/ math] en todas partes excepto en la entrada [math] i [/ math] th, donde tiene un [math] 1 [/ math]. Ahora [math] Se_i [/ ​​math] es un vector propio del valor propio [math] d_ {ii} [/ math], lo que contradice nuestra suposición, que no es un valor propio. Prueba de la última declaración:
[matemáticas] SDS ^ {- 1} (Se_i) = SDe_i = Sd_ {ii} e_i = d_ {ii} (Se_i) [/ matemáticas]

Para empezar, sabemos que, dado que A es diagonalizable, [matemática] A = SDS ^ {- 1} [/ matemática], donde S es la matriz del vector propio y D la matriz del valor propio diagonal. Lo bueno de esto es que es equivalente a decir que [matemáticas] A [/ matemáticas] y [matemáticas] D [/ matemáticas] son ​​similares y comparten el mismo polinomio característico.

El argumento podría proceder de la siguiente manera. Tenga en cuenta que [math] AS = SD [/ math]. Tome el primer vector de columna de ambos lados y tenemos [matemática] Av_ {1} = \ lambda_ {1} v_ {1} [/ matemática], de donde [matemática] \ lambda_ {1} [/ matemática] es un valor propio correspondiente al vector propio [matemáticas] v_ {1} [/ matemáticas]. Argumenta que si [math] v_ {j} [/ math] tiene el mismo valor propio que por la invertibilidad de [math] S [/ math], la base propia es de al menos la dimensión 2 y, por lo tanto, la multiplicidad del valor propio aumenta en consecuencia. Por método de enumeración, podemos ver que los polinomios característicos (de A y D) son idénticos. Por lo tanto, las entradas diagonales concuerdan con los valores propios de [math] A [/ math].

Entonces, de hecho, la matriz diagonal, [matemática] D [/ matemática], debe contener los mismos valores propios con la misma multiplicidad. Entonces, [math] D [/ math] es único hasta la reordenación de los valores propios en la matriz.