Cómo entender los valores y vectores de Eigen en términos simples

Un vector Eigen es un vector cuya dirección permanece sin cambios cuando se le aplica una transformación lineal.

Considere la siguiente imagen en la que se muestran tres vectores. El cuadrado verde solo se dibuja para ilustrar la transformación lineal que se aplica a cada uno de estos tres vectores.

Los vectores propios (rojo) no cambian de dirección cuando se les aplica una transformación lineal (por ejemplo, escala). Otros vectores (amarillo) sí.

La transformación en este caso es una escala simple con factor 2 en la dirección horizontal y factor 0.5 en la dirección vertical, de modo que la matriz de transformación A se define como:

Un vector v = (x, y) se escala aplicando esta transformación como

La figura anterior muestra que la dirección de algunos vectores (mostrados en rojo) no se ve afectada por esta transformación lineal. Estos vectores se denominan vectores propios de la transformación y definen de forma única la matriz cuadrada A. Esta relación determinista única es exactamente la razón por la que esos vectores se denominan ‘vectores propios’ (Eigen significa ‘específico’ en alemán).

En general, el vector propio v de una matriz A es el vector para el cual se cumple lo siguiente:

donde λ es un valor escalar llamado ‘ valor propio ‘. Esto significa que la transformación lineal A en el vector v está completamente definida por λ

Podemos reescribir la ecuación

donde I es la matriz de identidad de las mismas dimensiones que A

Sin embargo, suponiendo que v no es el vector nulo, ecuación; solo se puede definir si

no es invertible Si una matriz cuadrada no es invertible, eso significa que su Determinante debe ser igual a cero. Por lo tanto, para encontrar los vectores propios de A, simplemente tenemos que resolver la siguiente ecuación:

Para más consulta:

Valores propios y vectores propios – Wikipedia

Eigenvalue – de Wolfram MathWorld

Valores propios y vectores propios

Valores propios y vectores propios: una introducción

¿Cuál es la importancia de los valores propios / vectores propios?

http://math.mit.edu/~gs/linearal…

Toma un cuadrado / círculo / triángulo, ¿ves el punto en el medio? Sí, que sea el centro de nuestro objeto.

Ahora tome una matriz de transformación, deje que esta matriz rote nuestro objeto alrededor de su centro, y lo aleje (desde dicho centro de coordenadas) dos veces como estaba inicialmente.

Todos los puntos de este objeto cambiarán obviamente debido a la transformación, ¿verdad? Pues sí, excepto un punto, el centro!

Entonces, el vector que apunta desde el centro de coordenadas al centro de este objeto, es en realidad el vector propio de esa matriz de transformación, y el valor propio es 2, simplemente porque ese vector hacia el centro del objeto, ¡se hizo dos veces más largo que antes! Tan simple como eso 😉

Toma un cubo sólido. Rota lo. Esto está representado por una matriz de rotación, o más generalmente por una transformación lineal que se aplica a cada punto del cubo, o para vectorizar a este punto desde algún punto de referencia fijo. Si dicho vector no se mueve bajo esta transformación, se llama vector propio. Si cambia la magnitud, la relación de la magnitud antes y después se llama valor propio.

Por ejemplo, coloque un cubo en el plano [matemático] xy [/ matemático] con su centro en el origen. Gírelo alrededor del eje z [matemático] [/ matemático] [matemático] 30 ^ 0 [/ matemático]. Cualquier vector a través del eje z es un vector propio , con un valor propio de 1.

Entre muchos aspectos para los que se utiliza Matrix, la transformación lineal es la más importante. Sin embargo, puede haber distracciones de su uso en otros aspectos. Y EigenValues ​​y EigenVectors son invariablemente las propiedades que relacionamos con su uso como Transformaciones lineales.

Para empezar, visualizaría

[matemáticas] [A] \ vec {x} = {y} [/ matemáticas]

donde T es transformación, x es el vector a Transformado e y es los Vectores Transfromados.

Si puede haber algunos vectores tales que, después de las transformaciones, su dirección no cambie y solo se escalen algunos escalares. estos vectores son los EigenVectors y EigenValue ([math] \ lambda) [/ math] es por cuánto está escalado.

[matemáticas] [A] \ vec {x} = \ lambda \ vec {x} [/ matemáticas]

Muchas de las Matrices importantes (Matrices Ortogonales) no tienen valores propios reales y vectores propios correspondientes.

Esta no es realmente una pregunta de matemática para graduados, debe tratarse en un curso básico de álgebra lineal. Las descomposiciones matriciales resuelven sistemas lineales o cambian sistemas de coordenadas agrupando vectores que apuntan en la misma dirección y clasificándolos por una magnitud (valores propios). Strang es un buen texto para aprender álgebra lineal básica.

Me acerco a ambos desde un nivel bastante básico en Glimpses of Symmetry, Capítulo 17 – Matrices Redux.