¿Cómo se conectan las ecuaciones diferenciales y el álgebra lineal?

Me gustaría dar una clase de ejemplos que conozco, que muestran cómo la teoría central del álgebra lineal puede ser útil para calcular espacios de solución completos para ecuaciones diferenciales ordinarias lineales homogéneas con coeficientes constantes.

Me gustaría comenzar sacando algunos preliminares. Suponga que [math] C ^ {\ infty} (\ mathbb {R}) [/ math] denota el conjunto de todas las funciones desde [math] \ mathbb {R} [/ math] a [math] \ mathbb {R} [/ matemáticas] que son continuamente diferenciables un número infinito de veces; este conjunto forma un espacio vectorial, con la suma vectorial dada por la suma de funciones para funciones en este conjunto, y la multiplicación escalar dada por la multiplicación de funciones por una constante en este conjunto también. Ahora, suponga que [math] D: C ^ {\ infty} (\ mathbb {R}) \ to C ^ {\ infty} (\ mathbb {R}) [/ math] denota el operador de diferenciación que actúa en este espacio vectorial ; Este operador es lineal. A los fines de los ejemplos que me gustaría dar para responder a su pregunta original aquí, le pido que me crea que mis dos declaraciones anteriores son ciertas; en lugar de seguir una tangente para verificar formalmente que [math] C ^ {\ infty} (\ mathbb {R}) [/ math] forma un espacio vectorial y [math] D [/ math] es lineal en el lugar aquí

Ahora, suponga como ejemplo que nuestro objetivo es calcular [matemática] \ nombre de operador {ker} (D ^ {4} – 3D ^ {3} + 2D ^ {2}) [/ matemática], que es decir que nosotros desea resolver la ecuación diferencial ordinaria lineal homogénea con coeficientes constantes dados por [matemática] f ^ {(4)} (x) – 3f ” ‘(x) + 2f’ ‘(x) = 0 [/ matemática]. Resulta que:
[math] \ operatorname {ker} (D ^ {4} – 3D ^ {3} + 2D ^ {2}) [/ math]
[math] = \ operatorname {ker} (D ^ {2}) \ oplus \ operatorname {ker} (D – I) \ oplus \ operatorname {ker} (D – 2I) [/ math]
[math] = \ operatorname {span} \ left \ {1, x \ right \} \ oplus \ operatorname {span} \ left \ {e ^ {x} \ right \} \ oplus \ operatorname {span} \ left \ {e ^ {2x} \ right \} [/ math]
[math] = \ operatorname {span} \ left \ {1, x, e ^ {x}, e ^ {2x} \ right \} [/ math]. En otras palabras, el álgebra lineal nos dice aquí que [matemáticas] f ^ {(4)} (x) – 3f ” ‘(x) + 2f’ ‘(x) = 0 [/ matemáticas] si y solo si [matemáticas ] f (x) = c_1 + c_2 x + c_3 e ^ {x} + c_4 e ^ {2x} [/ math] para cualquier coeficiente real [math] c_1, c_2, c_3, c_4 \ in \ mathbb {R} [ /matemáticas]. Le pediría que me crea por ahora que mi ejemplo prototípico de cómo se puede usar el álgebra lineal para resolver ecuaciones diferenciales ordinarias lineales homogéneas con coeficientes constantes aquí es cierto, antes de pasar a justificar por qué esto es cierto y explicar cómo la teoría central el álgebra lineal se puede aplicar para calcular soluciones completas a este tipo de ecuaciones diferenciales en general.

En general, suponga que [math] p (x) \ in \ mathbb {R} \ left [x \ right] [/ math] es un polinomio con coeficientes reales, y nuestro objetivo es calcular [math] \ operatorname {ker } (p (D)) [/ matemáticas]. Considere cualquier función [math] f (x) \ in \ operatorname {ker} (p (D)) [/ math]. Resulta que [math] p (x) [/ math] es también el polinomio mínimo de [math] D | _ {\ operatorname {ker} (p (D))} [/ math], el operador de diferenciación restringido a [math] \ operatorname {ker} (p (D)) [/ math]. Se deduce que los valores propios de [math] D | _ {\ operatorname {ker} (p (D))} [/ math] están dados por las raíces de [math] p (x) [/ math]. El álgebra lineal central nos dice eso, suponiendo que el polinomio mínimo en contexto [matemático] p (x) [/ matemático] se divide en factores lineales como por ejemplo [matemático] p (x) = \ prod \ limits_ {k = 1} ^ { n} (x – \ lambda_ {k}) ^ {m_k} [/ math], luego [math] \ operatorname {ker} (p (D)) [/ math] admite la descomposición de suma directa [math] \ operatorname { ker} (p (D)) = \ bigoplus \ limits_ {k = 1} ^ {n} \ operatorname {ker} (D | _ {\ operatorname {ker} (p (D))} – \ lambda_k I) ^ {m_k} [/ matemáticas]. Es posible que [math] p (x) [/ math] no se divida entre los números reales, pero propondría que aún podamos calcular [math] \ operatorname {ker} (p (D)) [/ math] independientemente ; Volveré a este punto más adelante. En primer lugar, me gustaría analizar cómo podemos llevar este resultado de descomposición de suma directa del núcleo del álgebra lineal para calcular [math] \ operatorname {ker} (p (D)) [/ math], en base a la suposición contextual temporal de que [math ] p (x) [/ math] se divide.

Considere cualquier raíz de [math] p (x) [/ math] que tenga multiplicidad uno. También resulta que cualquier función (distinta de cero) [math] g (x) \ en C ^ {\ infty} (\ mathbb {R}) [/ math] y cualquier [math] \ lambda \ in \ mathbb { R} [/ math], [math] g (x) [/ math] es un vector propio para [math] D [/ math] con eigenvalue [math] \ lambda [/ math] si y solo si [math] g ( x) \ in \ operatorname {span} \ left \ {e ^ {\ lambda x} \ right \} [/ math]; es decir, [math] \ operatorname {ker} (D – \ lambda I) = \ operatorname {span} \ left \ {e ^ {\ lambda x} \ right \} [/ math] para todos [math] \ lambda \ in \ mathbb {R} [/ math]. Por lo tanto, para cualquier raíz [math] \ lambda_k [/ math] de [math] p (x) [/ math] que tiene multiplicidad uno, [math] \ operatorname {ker} (D | _ {\ operatorname {ker} ( p (D))} – \ lambda_k I) = \ operatorname {ker} (D – \ lambda_k I) = \ operatorname {span} \ left \ {e ^ {\ lambda_k x} \ right \} [/ math], aplicando el resultado más general de mi cláusula anterior.

Ahora, considere cualquier raíz de [math] p (x) [/ math] que tenga multiplicidad mayor que uno. Resulta que cualquier función (distinta de cero) [matemática] g (x) \ en C ^ {\ infty} (\ mathbb {R}) [/ math] y cualquier [matemática] \ lambda \ in \ mathbb {R } [/ math], [math] g (x) [/ math] es un vector propio generalizado para [math] D [/ math] con eigenvalue [math] \ lambda [/ math], donde ie [math] (D – \ lambda I) ^ {m} g (x) = 0 [/ math] para algún entero positivo [math] m> 0 [/ math], si y solo si [math] g (x) \ in \ operatorname {span } \ left \ {x ^ ne ^ {\ lambda x}: 0 \ leq n <m \ right \} [/ math]; es decir, [math] \ operatorname {ker} (D – \ lambda I) ^ m = \ operatorname {span} \ left \ {x ^ ne ^ {\ lambda x}: 0 \ leq n <m \ right \} [/ math], para todos [math] \ lambda \ in \ mathbb {R} [/ math]. Por lo tanto, para cualquier raíz [math] \ lambda_k [/ math] de [math] p (x) [/ math] que tiene multiplicidad dada por [math] m_k [/ math], [math] \ operatorname {ker} (D | _ {\ operatorname {ker} (p (D))} – \ lambda_k I) ^ {m_k} = \ operatorname {ker} (D – \ lambda_k I) ^ {m_k} = \ operatorname {span} \ left \ {x ^ ne ^ {\ lambda x}: 0 \ leq n <m_ {k} \ right \} [/ math], para todos [math] \ lambda \ in \ mathbb {R} [/ math], aplicando el resultado más general de mi cláusula anterior. Esta observación es más general que la observación de mi párrafo anterior sobre los vectores propios de [math] D [/ math]; es decir, la observación en mi párrafo anterior es solo un caso especial de esta observación, aunque creo que necesitaría la observación de mi párrafo anterior para deducir esta observación, si fuera completamente formal y riguroso sobre lo que estoy haciendo aquí.

Por lo tanto, si [math] \ operatorname {ker} (p (D)) = \ bigoplus \ limits_ {k = 1} ^ {n} \ operatorname {ker} (D | _ {\ operatorname {ker} (p (D ))} – \ lambda_k I) ^ {m_k} [/ math] como en el mismo contexto que antes, entonces podemos usar estas observaciones para deducir que:

[math] \ operatorname {ker} (p (D)) [/ math]

[math] = \ bigoplus \ limits_ {k = 1} ^ {n} \ operatorname {ker} (D | _ {\ operatorname {ker} (p (D))} – \ lambda_k I) ^ {m_k} [/ matemáticas]

[math] = \ bigoplus \ limits_ {k = 1} ^ {n} \ operatorname {ker} (D – \ lambda_k I) ^ {m_k} [/ math]

[math] = \ bigoplus \ limits_ {k = 1} ^ {n} \ nombre del operador {span} \ left \ {x ^ je ^ {\ lambda_k x}: 0 \ leq j <m_k \ right \} [/ math] .

Hasta ahora, he asumido que nuestro polinomio mínimo en contexto [matemático] p (x) [/ matemático] se divide en factores lineales sobre los reales. En general, podría haber factores cuadráticos de [matemática] p (x) [/ matemática] que no se dividen en pares de factores lineales sobre los reales. Sin embargo, [matemática] p (x) [/ matemática] siempre se dividirá sobre los números complejos, y sus raíces complejas vendrán en pares conjugados. Resulta que para cualquier [math] \ alpha + \ beta i \ in \ mathbb {C} [/ math]:

[math] \ operatorname {ker} \ left (D – (\ alpha + \ beta i) I \ right) \ oplus \ operatorname {ker} (D – (\ alpha – \ beta i) I) [/ math]

[math] = \ operatorname {span} \ left \ {e ^ {(\ alpha + \ beta i) x} \ right \} \ oplus \ left \ {e ^ {(\ alpha – \ beta i) x} \ derecha \} [/ matemáticas]

[math] = \ operatorname {span} \ left \ {e ^ {\ alpha x} e ^ {\ beta ix}, e ^ {\ alpha x} e ^ {- \ beta ix} \ right \} [/ math ]

[math] = \ operatorname {span} \ left \ {e ^ {\ alpha x} \ cos (\ beta x), e ^ {\ alpha x} \ sin (\ beta x) \ right \} [/ math] .

En términos más generales, resulta que para cualquier [math] \ alpha + \ beta i \ in \ mathbb {C} [/ math] y un entero positivo [math] m> 0 [/ math]:

[math] \ operatorname {ker} (D – (\ alpha + \ beta i) I) ^ {m} \ oplus \ operatorname {ker} (D – (\ alpha – \ beta i) \ lambda I) ^ {m } [/matemáticas]

[math] = \ operatorname {span} \ left \ {x ^ ne ^ {(\ alpha + \ beta i) x}: 0 \ leq n <m \ right \} \ oplus \ left \ {x ^ ne ^ { (\ alpha – \ beta i) x}: 0 \ leq n <m \ right \} [/ math]

[math] = \ operatorname {span} \ left \ {x ^ ne ^ {\ alpha x} e ^ {\ beta ix}, x ^ ne ^ {\ alpha x} e ^ {- \ beta ix}: 0 \ leq n <m \ right \} [/ math]

[math] = \ operatorname {span} \ left \ {x ^ ne ^ {\ alpha x} \ cos (\ beta x), x ^ ne ^ {\ alpha x} \ sin (\ beta x): 0 \ leq n <m \ right \} [/ math].

Con una cantidad muy moderada de fraude desde este punto, es posible concluir en general que si [math] p (x) [/ math] factoriza en términos cuadráticos y lineales como [math] p (x) = \ left (\ prod \ limits_ {j = 1} ^ {k} (x ^ 2 – 2 \ alpha_ {j} + (\ alpha_ {j} ^ {2} + \ beta_ {j} ^ {2})) ^ {m_j} \ right) \ left (\ prod \ limits_ {j = k + 1} ^ {n} (x – \ lambda_j I) ^ {m_j} \ right) [/ math], luego:

[math] \ operatorname {ker} (p (D)) [/ math]

[matemáticas] = \ left (\ bigoplus \ limits_ {j = 1} ^ {k} \ operatorname {span} \ left \ {x ^ {n_j} e ^ {\ alpha_j} \ cos (\ beta_j x), x ^ {n_j} e ^ {\ alpha_j x} \ sin (\ beta_j x): 0 \ leq n_j <m_j \ right \} \ right) \ oplus \ left (\ bigoplus \ limits_ {j = k + 1} ^ {n } \ operatorname {span} \ left \ {x ^ {n_j} e ^ {\ lambda_j x}: 0 \ leq n_j <m_j \ right \} \ right) [/ math].

Es posible volver a mi ejemplo original desde el comienzo de mi respuesta aquí, y ver por qué es cierto. Aunque podría decirse que no he sido tan formal y riguroso con mi respuesta aquí como es posible, espero demostrar suficientemente cómo la teoría central del álgebra lineal se puede aplicar para calcular espacios de solución completos a los tipos de ecuaciones de diferenciación que he considerado aquí.

Algunas ecuaciones diferenciales se pueden resolver (analíticamente) sin ningún conocimiento de álgebra lineal. Pero un curso de introducción en DE cubrirá cómo usar el determinante de la matriz de Wronsk para resolver ciertas ecuaciones de segundo orden (ver variación de parámetros).

El álgebra lineal es especialmente útil para resolver sistemas de ecuaciones. Si tienes un sistema de ED, el álgebra lineal te ayudará. Un enfoque para resolver un DE de orden superior es convertirlo a un sistema de orden inferior (vea este tutorial rápido).

Para las DE del mundo real, las técnicas puramente analíticas tienden a ser inútiles. En la práctica, los resuelve numéricamente. Por lo general, debe dividir su dominio en una cuadrícula y resolver una ecuación en cada punto de la cuadrícula (consulte, por ejemplo, el método de diferencia finita). El álgebra lineal es fundamental para hacer esto de manera eficiente con una computadora.

Otra clase de métodos numéricos populares, el Runge-Kutta, se parametriza con una matriz (a veces llamada “cuadro” en este contexto). La mayoría de los solucionadores integrados en Matlab se basan en estas técnicas.

Las ecuaciones diferenciales matriciales son un ejemplo perfecto donde las ecuaciones diferenciales y las matrices se entremezclan entre sí.

Consideremos uno muy simple:

[matemáticas] \ dot {x} = Hacha [/ matemáticas]

donde [math] x [/ math] es un vector [math] n \ times 1 [/ math] que contiene entradas relacionadas con el tiempo [math] t [/ math], [math] A [/ math] es a (fijo) [math] n \ times n [/ math] matrix y cada entrada de [math] \ dot {x} [/ math] es la derivada (con respecto a [math] t [/ math]) de la entrada correspondiente en [ matemáticas] x [/ matemáticas]. Esto, en realidad, es un sistema de ecuaciones diferenciales ordinarias de primer orden [matemáticas] n [/ matemáticas] (simplemente expanda el producto de la matriz en el lado derecho).

La forma de resolver esta ecuación diferencial implica determinar los valores propios y los vectores propios de la matriz [matemática] A [/ matemática]. De hecho, su solución general es

[matemáticas] x = k_1e ^ {\ lambda_1t} y_1 + \ cdots + k_ne ^ {\ lambda_nt} y_n [/ math]

donde [math] \ lambda_i [/ ​​math] es el valor propio de [math] A [/ math] asociado con el vector propio [math] y_i [/ ​​math], para todos [math] i [/ math].

En un nivel muy básico, “tomar la derivada” de una función es una transformación lineal de un espacio de funciones a otro.

Por ejemplo, si [matemática] f [/ matemática] y [matemática] g [/ matemática] son ​​funciones en una sola variable [matemática] x [/ matemática] y [matemática] c_1 [/ matemática] y [matemática] c_2 [ / math] son ​​números reales, entonces

[matemáticas] \ frac {d} {dx} (c_1 * f + c_2 * g) = c_1 * \ frac {d} {dx} (f) + c_2 * \ frac {d} {dx} (g) [/ matemáticas]

y vemos de inmediato que la diferenciación de funciones es una transformación lineal.