¿Cuál es la intuición detrás de los autovalores / vectores?

Los vectores propios son vectores que se fijan en una dirección bajo una transformación lineal dada. Los factores de escala de esos vectores propios son valores propios. Aproximadamente, los valores propios son una medida de la distorsión inducida por la transformación y los vectores propios informan sobre la orientación de la distorsión .

La forma más simple de visualizar vectores propios: considere un plano 2D. Representa las coordenadas en el plano en una matriz x 1 x 2. Ahora si hay una transformación lineal matriz 2 x 2 A. Entonces A X x (‘X’ representa la multiplicación) le da otra coordenada en algún lugar del plano, pero la anomalía que surge en el caso de x es un vector propio es que el nuevo punto se encuentra en la línea que une la coordenada representada por x y origen (referir.given_figure). Por lo tanto, la dirección del vector x permanece sin cambios. Y cuánto más se encuentra en la línea viene dado por el valor propio. El párrafo anterior debería tener más sentido si comprende esto.

Hay mucho más y los conceptos y las aplicaciones son desconcertantes. Para cada consulta de búsqueda que realice en Google, los resultados se clasifican en función de un algoritmo (comúnmente denominado algoritmo PageRank) que utiliza un vector propio.

Echa un vistazo a estas páginas que te dan una muy buena intuición detrás de las matrices y los valores / vectores propios, lo que me pareció muy útil.

Página en stata.com

Página en stata.com

Si A x = c x , entonces ( AcI ) x = A xc x = 0, donde I es la matriz de identidad. Por lo tanto, la matriz ( A -c I ) es singular, por lo que tiene cero determinante. Pero “det ( AcI ) = 0″ significa que c es una raíz del polinomio det ( AxI ), que es el polinomio característico de A.

Esto funciona al revés: si d es otra raíz del polinomio característico de A , entonces la matriz ( A- dI ) es singular, por lo que debe existir un vector distinto de cero y tal que A y = d y .

Esto explica por qué los valores propios son exactamente las raíces de la ecuación característica.

Una forma de pensar en esto es interpretar la matriz A como una transformación lineal. Los vectores propios de esta matriz son los vectores que permanecen apuntando en la misma dirección (u opuesta) pero escalados por su valor propio respectivo.

Con esto en mente, realmente no tendría sentido que solo haya finitamente muchas soluciones para [matemáticas] Ax = cx [/ matemáticas]: simplemente podemos volver a aplicar [matemáticas] A [/ matemáticas] a [matemáticas] cx [/ math], pero luego [math] Acx = cAx = c ^ 2x [/ math], que es otro vector que apunta en la misma dirección que [math] x [/ math] (escalado de manera diferente).

Como debe haber infinitas soluciones para [matemática] Ax = cx [/ matemática], sabemos que hay infinitas soluciones para [matemática] (A-cI) x = 0 [/ matemática]. Desde aquí, podemos establecer [matemática] det (A-cI) [/ matemática] en 0 y resolver [matemática] c [/ matemática].

El polinomio característico de una matriz no es útil con mi comprensión intuitiva de los valores propios y los vectores propios. La interpretación geométrica de la multiplicación de matrices es, y los blogs vinculados en la respuesta de Charles Kim fueron intuitivamente muy atractivos.