En cierto modo, un problema de valor propio es un problema que parece tener respuestas continuas, pero que solo tiene respuestas discretas. El problema es encontrar los números, llamados valores propios, y sus vectores coincidentes, llamados vectores propios. Esto es extremadamente general: se usa en ecuaciones diferenciales (¡porque las soluciones a ecuaciones diferenciales lineales forman espacios lineales!) Y se describe en detalle en álgebra lineal.
La idea básica para las ecuaciones lineales es esta: Ax = b tiene una solución única si A es invertible, y tiene muchas o ninguna solución si no. Si fuera álgebra básica, dividiríamos ambos lados de la ecuación por A, pero la división no está definida para las matrices. Entonces trabajamos alrededor de eso; si el botón de división de su calculadora estuviera atascado y necesitara dividir un número entre 2, ¿qué haría? Podrías multiplicar por 0.5 y obtener la respuesta. 0.5 es el inverso (multiplicativo) de 2. Entonces, queremos resolver encontrando la matriz A ^ (-1) que podríamos multiplicar la ecuación Ax = b por, y obtener A ^ (- 1) A x = A ^ ( -1) b = I x = x.
La idea básica para los valores propios es esta: ¿ Ax = L x para algún vector xy número L? (Por lo general, lambda se usa para L.)
Imagine una matriz A de 3 × 3 que transforma los vectores en 3D en otros vectores en 3D. La pregunta del valor propio es esta: ¿qué vectores no giran A ? Y si no están rotados, ¿están invertidos, son más pequeños, más grandes o tienen la misma magnitud? ¿Qué número L es la longitud del vector propio x multiplicado por cuando A actúa sobre él?
- ¿Cuál es el punto de tomar el cuadrado medio raíz de la norma de un conjunto de vectores cuando sabemos que la norma de un vector siempre es positiva?
- ¿Cuáles son las relaciones de desigualdad que tiene el rango con las filas y columnas de una matriz?
- ¿Cómo se relacionan los productos tensoriales con las transformaciones geométricas como el corte y la rotación?
- Cómo obtener un vector de dirección en un espacio 2D
- ¿Es una matriz en álgebra lineal solo un conjunto de vectores?
Algunas matrices no tienen valores propios o vectores propios reales: una matriz de rotación en 2 D, por ejemplo, gira todo. (El vector cero 0 no cuenta, porque eso siempre funciona de manera trivial). Algunas matrices tienen uno o más; algunos tienen un “conjunto completo” de n vectores propios en n dimensiones. Esas matrices que llamamos “diagonalizables”. Esto es importante en la mecánica cuántica porque si puedes diagonalizar una matriz, eso significa que puedes medir una cosa y obtener respuestas específicas.