Las matrices representan mapas lineales. Los mapas lineales hacen una o ambas de estas cosas a los vectores:
1) Escala el vector, es decir, multiplica por una constante
2) Gire el vector, es decir, cambie la dirección hacia la que apunta el vector
Un vector propio de un operador lineal se distingue por el hecho de que es un vector que no es girado por el operador lineal, sino que solo se escala por un factor constante. Ese factor es el valor propio.
Los componentes de una matriz son entradas compuestas [math] A_ {ij} [/ math] donde [math] i [/ math] es el número de fila y [math] j [/ math] es el número de columna. Lo que significan estas entradas es que, en términos del conjunto de coordenadas seleccionado, la coordenada [math] j ^ {th} [/ math] de la entrada se escala por [math] A_ {ij} [/ math] para determinar su contribución a la coordenada [math] i ^ {th} [/ math] de la salida. Es decir, si la entrada es
- ¿Es cierto que si tiene un límite en el número de condición de una matriz M, significa que M es invertible? ¿Por qué es eso cierto?
- ¿Qué dice el número de condición de una matriz intuitivamente?
- ¿Cuál es la intuición matemática sobre por qué la eliminación gaussiana no conserva los vectores propios (y los valores propios)?
- ¿Alguien puede ayudarme a entender el concepto de subespacios dado este ejemplo?
- Cómo probar este teorema de álgebra matricial
[matemáticas] x = \ begin {bmatrix} x_1 & \ cdots & x_N \ end {bmatrix} ^ T [/ math]
y la salida es
[matemáticas] y = \ begin {bmatrix} y_1 & \ cdots & y_N \ end {bmatrix} ^ T [/ math]
para que [math] y = Ax [/ math], entonces la coordenada [math] i ^ {th} [/ math] de la salida, es decir, [math] y_i [/ math], sea la suma de las contribuciones adeudadas a las coordenadas [matemáticas] N [/ matemáticas] de la entrada:
[matemáticas] y_i = A_ {i1} x_1 + \ puntos + A_ {ij} x_j + \ puntos A_ {iN} x_N [/ matemáticas]
Recuerde qué son las coordenadas: codifican una longitud a lo largo de una dirección particular, con esa dirección determinada por el vector base. Entonces, si la coordenada [math] i ^ {th} [/ math] es 2, se refiere al punto en la dirección del vector base [math] i ^ {th} [/ math] que es dos veces más largo que el [math] i ^ {th} [/ math] vector base.
Entonces, ¿qué te dice eso sobre una matriz diagonal? La matriz diagonal tiene [matemática] A_ {ij} = 0 [/ matemática] siempre que [matemática] i \ neq j [/ matemática]. La fórmula para la coordenada [math] i ^ {th} [/ math] se reduce a
[matemáticas] y_i = A_ {ii} x_i [/ matemáticas].
En otras palabras, la contribución a la salida en la dirección [math] i ^ {th} [/ math] es simplemente la coordenada de la entrada en esa misma dirección escalada por [math] A_ {ii} [/ math]. Entonces, si la entrada es un vector que se encuentra en la dirección [math] i ^ {th} [/ math], ese vector simplemente se escala por [math] A_ {ii} [/ math], sin rotación involucrada. Por lo que dije anteriormente sobre lo que es un vector propio, esto significa que cualquier vector en esta dirección debe ser un vector propio y el valor propio correspondiente es [math] A_ {ii} [/ math]. Es decir, las entradas diagonales son valores propios.
Punto menor: distinguí “escala” y “rotación” arriba, aunque puede considerar multiplicar por -1 como rotar por 180 grados. Para hacer estos casos verdaderamente distintos, puede referirse a las dos operaciones como “escala” y “rotación en un ángulo diferente de 0 o 180 grados”, “rotación en una dirección no colineal”, o algo igualmente pedante. A quién le importa, seamos geniales al respecto y no nos preocupemos por estos ofuscantes tecnicismos.