Hay muchos usos prácticos de esta ecuación porque hay muchos fenómenos en los que la tasa de cambio de una cantidad puede modelarse como (aproximadamente) proporcional al valor de esa cantidad.
Sin embargo, intentaré dar una idea intuitiva del significado matemático de la ecuación [math] f ‘= f [/ math] (llamemos a esta ecuación E).
Asumiré que está familiarizado con las ecuaciones diferenciales lineales ordinarias y la exposición al álgebra lineal básica (valores propios) para lo que sigue.
En el álgebra lineal elemental (es decir, los escalares son números reales), tratamos con transformaciones lineales (escala y rotación) de objetos llamados vectores (puntos en el espacio). Los vectores se pueden representar como una sola columna de números, mientras que una transformación se representa mediante una matriz rectangular (generalmente cuadrada) de números llamada matriz que opera en ese vector para producir otro vector (el vector transformado). Mantenga esta idea de matriz como operador en tu mente para lo que sigue.
En la clase habitual de álgebra lineal usamos esta representación, con [math] A [/ math] como matriz y [math] \ mathbf {b}, \ mathbf {x} [/ math] como vectores, para resolver dos problemas:
[math] A \ mathbf {x} = \ mathbf {0} [/ math] (homogéneo – las soluciones definen el espacio nulo )
[math] A \ mathbf {x} = \ mathbf {b} [/ math] (no homogéneo)
y
[math] A \ mathbf {x} = \ lambda \ mathbf {x}, \ lambda \ in \ mathbb {R} [/ math] (eigenvalue-eigenvector)
En particular, el segundo de estos (el problema del vector propio-valor propio ), es relevante para la importancia de E. Dice que estamos encontrando un vector [math] \ mathbf {x} [/ math] que permanece “en su línea” cuando aplicamos la transformación [math] A [/ math] (no cambia hasta un orden de escala [math] \ lambda [/ math]).
Si subimos un nivel de abstracción, podemos identificar [matemáticas] A [/ matemáticas] como un operador lineal [matemáticas] L [/ matemáticas] , que opera en un operando [matemáticas] x [/ matemáticas] (un vector, en este caso); por lo tanto, podemos reformular nuestras dos ecuaciones anteriores en términos de operadores:
[matemática] Lx = 0 [/ matemática] (homogénea)
[matemática] Lx = b [/ matemática] (no homogénea)
y
[matemática] Lx = \ lambda x, \ lambda \ in \ mathbb {R} [/ math] ( operando eigenvalue-eigen)
Esto no parece demasiado interesante, ya que parece que simplemente cambiamos el nombre de las cosas … pero la clave es que [math] L [/ math] no tiene que ser una matriz y [math] x, b [/ math ] no tienen que ser vectores numéricos: son solo objetos que “actúan como” matrices y vectores. La propiedad clave de [math] L [/ math] es la propiedad de linealidad:
[matemáticas] L (x + y) = Lx + Ly [/ matemáticas]
Bien, entonces podemos ver cómo el álgebra lineal elemental es un caso especial de operadores lineales (es decir, transformaciones lineales en espacios vectoriales de dimensiones finitas sobre los números reales). El objetivo de todo esto era introducir un nuevo nivel de abstracción con el que quizás no estés familiarizado con el uso de ideas con las que puedas estar familiarizado (por lo tanto, será un poco más “intuitivo”).
Ahora, a las ecuaciones diferenciales ordinarias lineales (LODE), que es donde vive E. Los LODE expresan una relación entre una combinación lineal de una función de una sola variable [matemática] f [/ matemática] (la variable generalmente se suprime por brevedad) y sus derivados ([matemática] f ‘, f’ ‘, f’ ” … [/ Math] [math] [/ math] y alguna otra función [math] g. [/ Math]
[matemáticas] a_1f + a_2f ‘+ a_3f’ ‘= g [/ matemáticas]
Resulta que la diferenciación ([matemática] D [/ matemática]) también es un operador lineal:
[matemáticas] D (f + g) = Df + Dg [/ matemáticas]
Y, al igual que podemos multiplicar matrices (es decir, transformaciones lineales [matemáticas] A ^ 2 = AA) [/ matemáticas], podemos hacer lo mismo para la diferenciación:
[matemáticas] f ” = D (Df) = D ^ 2f [/ matemáticas]
Entonces, podemos representar cada LODE en términos de nuestra abstracción del operador lineal:
[matemáticas] a_1f + a_2f ‘+ a_3f’ ‘= g \ to Lf = g [/ math]
dónde
[matemáticas] L = a_1 + a_2D + a_3D ^ 2 [/ matemáticas]
Entonces, inmediatamente vemos los paralelos con el álgebra lineal:
[matemática] a_1f + a_2f ‘+ a_3f’ ‘= 0 [/ matemática] (homogénea)
[matemática] a_1f + a_2f ‘+ a_3f’ ‘= g [/ matemática] (no homogénea)
y
[math] a_1f + a_2f ‘+ a_3f’ ‘= \ lambda f, \ lambda \ in \ mathbb {R} [/ math] (función eigenvalue-eigen)
Por lo tanto, podemos volver a expresar E como un caso especial del problema de la función eigenvalue-eigen:
[matemáticas] Df = \ lambda f [/ matemáticas]
¿Cuál es la solución a esta ecuación (es decir, cuál es la forma de [math] f [/ math])? Es [matemáticas] f = \ exp (rx). [/ Matemáticas]
Entonces, [math] \ exp (rx) [/ math] son funciones propias del operador de diferenciación , al igual que las matrices tienen vectores propios .
Una vez que conoce los eigenoperandos de un operador lineal, podemos definir una base de soluciones para la ecuación homogénea de ese operador. Para los LODE homogéneos, estos son en términos de funciones propias, al igual que podemos representar soluciones a problemas de álgebra lineal en términos de vectores propios.
Decimos que estas funciones propias forman un espacio vectorial que abarca las soluciones, con una base definida por estas funciones propias. Los paralelos con el álgebra lineal no son casuales:
Digamos que [math] f_1, f_2 [/ math] son soluciones a la ecuación del operador diferencial [math] Qf = 0 [/ math] donde [math] Q = \ sum_0 ^ 2 a_iD ^ i [/ math]; entonces, por linealidad, sabemos que [math] cf_1 + df_2 [/ math] también es una solución para [math] c, d \ in \ mathbb {R} [/ math]. Por lo tanto, podemos representar soluciones a esta ecuación usando un viejo espacio vectorial bidimensional simple sobre los reales: [matemática] (c, d) \ iff cf_1 + df_2 [/ matemática], donde nuestra base ya no es la habitual [matemática ] \ hat {i}, \ hat {j} [/ math] pero [math] f_1, f_2 [/ math].
El significado principal de E es que su solución es la base del espacio de solución de [math] (D + c) f = 0, [/ math], que es el LODE más simple y no trivial.
Podemos generalizar a operadores diferenciales lineales más complejos (es decir, polinomios de operadores) si ampliamos el espacio de soluciones para incluir polinomios multiplicados por [math] \ exp (rx)) [/ math]. Específicamente, las funciones propias de cualquier operador diferencial lineal ([math] \ sum_0 ^ N a_iD ^ i) [/ math] tienen la forma [math] \ exp (rx) \ sum_0 ^ {M} c_ix ^ i [/ math] [ 1] para algunos [matemática] M
Esto es bastante interesante, porque estas soluciones generales combinan dos formas funcionales muy fundamentales: polinomios y exponenciales, por lo que podemos decir que el espacio vectorial cuya base son las funciones exponenciales multiplicadas de polinomios es donde viven los LODE.
Por ejemplo, el problema de la función propia que implica el operador diferencial lineal [matemática] Q = (D + 1) ^ 2 [/ matemática] es:
[matemáticas] Qf = \ lambda f [/ matemáticas] con funciones propias de la forma [matemáticas] a_1 \ exp (rx) + a_2x \ exp (rx) [/ matemáticas]
Entonces, después de todo esto, podemos decir que desde un punto de vista matemático, el significado de la solución para E es que representa la función propia fundamental para las ecuaciones diferenciales lineales ordinarias, que representan una gran parte de las matemáticas y la ingeniería aplicadas.
También muestra por qué el álgebra lineal es tan poderoso … y genial 🙂
Notas al pie
[1] http://math.mit.edu/~jorloff/sup …