¿Por qué el vector propio de la matriz A solo puede ser 0 si el determinante de A-aI es 0 (a es un número real, I es una matriz de identidad)?

Creo que puede haber alguna confusión aquí. Para una matriz [matemática] A [/ matemática], los vectores propios se definen como vectores [matemática] x [/ matemática] que satisfacen la relación [matemática] Ax = \ lambda x [/ matemática], donde [matemática] \ lambda [ / math] es una constante conocida como el valor propio. Por supuesto, esto solo es interesante cuando [math] x [/ math] es un vector distinto de cero; trivialmente, el vector cero es un “vector propio” de cada matriz.

Para calcular los valores propios, solo examinamos la ecuación:

[matemática] Ax = \ lambda x \ implica Ax- \ lambda x = 0 \ implica (A- \ lambda I) x = 0 [/ matemática]

Una forma conveniente de obtener los valores propios es calcular el determinante de [math] A- \ lambda I [/ math]. Si [math] x [/ math] no es cero, entonces la única forma en que [math] (A- \ lambda I) x [/ math] puede ser cero es si [math] A- \ lambda I [/ math] es un matriz singular (es decir, que tiene determinante 0). Esto es conveniente porque el determinante nos da una ecuación escalar en lugar de una ecuación matricial para resolver.

Solo para agregar a la respuesta anterior, veamos qué sucede en el caso de que [math] (A – \ lambda I) [/ math] no sea singular. En este caso, el determinante es distinto de cero y existe el inverso. Entonces [matemáticas] (A- \ lambda I) {\ bf x} = {\ bf 0} \ rightarrow (A- \ lambda I) ^ {- 1} (A- \ lambda I) {\ bf x} = ( A- \ lambda I) ^ {- 1} {\ bf 0} \ rightarrow {\ bf x} = {\ bf 0} [/ math], que es la solución trivial.