Una vez estaba sentado en una charla que no entendía muy bien. Al final de la charla, le pregunté al orador si cambiar a una base particular arrojaría alguna luz sobre su problema. El orador me explicó gentilmente que sus métodos eran independientes de la elección de la base y, por lo tanto, elegir una base versus otra no ayudaría. Después de la charla, estaba dando vueltas en el pasillo con un par de colegas y el orador, así que me disculpé por mi ingenua pregunta sobre el cambio de bases. Le expliqué que venía del análisis funcional y que, por lo tanto, alrededor del 70% de mis problemas podrían resolverse eligiendo una base conveniente, y todos nos reímos.
Entonces, como un vistazo a lo que constituye una “buena” base, aquí hay un par de ejemplos.
Si tiene un sistema de ecuaciones diferenciales [math] \ dot {\ mathbf {y}} = A \ mathbf {y} [/ math]. Aquí [math] A [/ math] es una matriz [math] n \ times n [/ math] y [math] \ mathbf {y} [/ math] es un vector de solución n-dimensional. Al igual que en el caso unidimensional, [math] \ mathbf {y} [/ math] toma la forma [math] \ mathbf {y} = e ^ {At} \ mathbf {y} _0 [/ math] donde [ math] \ mathbf {y} _0 [/ math] es la condición inicial. Como [math] \ mathbf {y} [/ math] y [math] \ mathbf {y} _0 [/ math] son vectores n-dimensionales, [math] e ^ {At} [/ math] debe ser un [math ] n \ veces n [/ math] matriz. Uno puede calcular [math] e ^ {At} [/ math] calculando la serie habitual [math] \ sum_ {j = 0} ^ \ infty \ frac {(At) ^ j} {j!} [/ Math] , pero esto requiere tres multiplicaciones matriciales solo para calcular los primeros cuatro términos. Por otro lado, puede cambiar las bases a la base de los vectores propios (si A es diagonizable) de modo que [matemática] A = VDV ^ {- 1}. [/ Matemática] Ahora deje que [matemática] \ lambda_1,…, \ lambda_n [/ math] sean los valores propios de [math] A [/ math] para que [math] D [/ math] sea la matriz diagonal de los valores propios. Entonces es fácil calcular a partir de la fórmula de la serie anterior usando el hecho de que [matemática] A ^ n = VD ^ nV ^ {- 1}. [/ Matemática] Entonces es fácil ver que [matemática] e ^ {At} = Ve ^ {Dt} V ^ {- 1}, [/ math] y e ^ {Dt} es solo una matriz diagonal con [math] e ^ {\ lambda_1 t}, e ^ {\ lambda_2 t}, \ ldots, e ^ {\ lambda_n t} [/ math] hacia abajo en la diagonal. Esto es numéricamente lo que sucede cuando le pides a MATLAB que resuelva un sistema, y todo funciona bien siempre que [math] A [/ math] sea lo suficientemente diagonizable.
Otro lugar que es útil es comprender la descomposición de valores singulares. Una forma de ver SVD es que siempre puede descomponer una matriz [matemática] m \ veces n [/ matemática] en [matemática] U \ Sigma V ^ \ ast [/ matemática], donde [matemática] U [/ matemática] es [matemática] m \ veces m [/ matemática] y ortogonal (unitaria), [matemática] V ^ \ ast [/ matemática] es [matemática] n \ veces n [/ matemática] y ortogonal (unitaria) y [matemática ] \ Sigma [/ math] es diagonal con entradas diagonales no negativas. El número de entradas positivas de [math] \ Sigma [/ math] corresponde al rango de [math] A [/ math]. Una forma más “amable” de ver SVD es la siguiente: Sea [matemático] T: V \ a W [/ matemático] una transformación lineal entre espacios de producto interno de dimensiones finitas [matemática] V, W [/ matemático ] Entonces existe una base ortonormal de [math] V, \ {v_1, \ ldots, v_n \} [/ math] y una base ortonormal de [math] W, \ {w_1, \ ldots, w_m \} [/ math] tal que [matemática] Tv_j = \ sigma_j w_j [/ matemática] para [matemática] 1 \ leq j \ leq r [/ matemática] y [matemática] Tv_j = 0 [/ matemática] para [matemática] r <j \ leq n [/ math], donde [math] \ sigma_j [/ math] son todos positivos. ¿Por qué es esto significativo? Bueno, la transformación lineal más simple que puedo imaginar es la transformación lineal de [math] \ mathbb {R} ^ n \ to \ mathbb {R} ^ m [/ math] que toma la primera base estándar [math] r [/ math] vectores de [math] \ mathbb {R} ^ n [/ math], y luego los envía a los primeros [math] r [/ math] vectores de base estándar de [math] \ mathbb {R} ^ m [/ math] , estirado o encogido por algunos valores positivos [math] \ sigma_1, \ ldots, \ sigma_r [/ math] y luego envía los últimos vectores básicos estándar [math] nr [/ math] a [math] 0. [/ math] What SVD realmente dice que si está dispuesto a cambiar las bases, cada transformación lineal entre espacios de productos internos se parece a esa simple. Esto incluso puede extenderse a la configuración de dimensiones infinitas siempre que tenga espacios de Hilbert.
- Cómo encontrar la posición de un vector
- ¿Qué significa el concepto de imagen en álgebra lineal y cuál es la importancia de este concepto para las matemáticas?
- ¿El producto de dos matrices unitarias es siempre unitario?
- ¿Por qué son importantes los subespacios invariantes?
- Si [math] p, q \ geq 2 [/ math] es cierto que existe a lo sumo un homomorfismo de anillo [math] f: \ mathbb {Z} / p \ mathbb {Z} \ rightarrow \ mathbb {Z} / q \ mathbb {Z} [/ math]?
Un ejemplo más simple y fundamental de cambio de base es la ortonormalización: encontrar una base ortonormal en un espacio de producto interno arbitrario. Deje [math] P_n [/ math] ser el espacio de polinomios sobre los números complejos de grado como máximo [math] n [/ math]. Una base de [matemática] P_n [/ matemática] es [matemática] \ {1, x, \ ldots, x ^ n \}. [/ Matemática] Si coloca un producto interno natural en [matemática] P_n [/ matemática] decir
[matemáticas] \ langle p, q \ rangle = \ frac {1} {\ sqrt {2 \ pi}} \ int _ {- \ infty} ^ {\ infty} \ overline {p (x)} q (x) e ^ {- x ^ 2/2} dx, [/ matemáticas]
para [math] p, q \ en P_n, [/ math] la base “estándar” anterior definitivamente no es ortonormal. Si realiza Gram-Schmidt sobre la base “estándar” con este producto interno, terminará con los polinomios de Hermite que son útiles en la integración numérica y la solución del oscilador armónico, etc.