¿Por qué es importante la identidad f ‘(x) = f (x) en matemáticas?

Si deposita una cierta cantidad de dinero en el banco por intereses, entonces el interés compuesto es lo que debería preferir intuitivamente. Porque para el segundo año, el interés que ganó en el primer año se convierte en parte del depósito.

[matemáticas] \ text {Balance} (N) = \ text {Deposit} (1 + r) ^ N [/ math]

A veces, el interés compuesto se calcula semestralmente o incluso trimestralmente. La forma de hacerlo es dividiendo primero la tasa de interés proporcionalmente y agregando ese interés en ese intervalo.

[matemáticas] \ text {Balance} _ {\ text {trimestral}} (N) = \ text {Deposit} (1 + \ frac {r} {4}) ^ {4N} [/ math]

Uno podría preguntarse qué pasaría si tuviéramos que hacer que la duración sea infinitamente pequeña. Te das cuenta de que es lo mismo que preguntar si los intereses son siempre proporcionales al monto pendiente.

[matemáticas] \ lim_ {x \ to \ infty} (1 + \ frac {r} {x}) ^ {xN} = e ^ {rN} [/ matemáticas]

Si descubres lo que eso significa, obtendrías esa ecuación que diste. Entonces obtendrías la función exponencial. Vea si puede resolver las piezas que faltan en la prueba.

Hay muchos usos prácticos de esta ecuación porque hay muchos fenómenos en los que la tasa de cambio de una cantidad puede modelarse como (aproximadamente) proporcional al valor de esa cantidad.

Sin embargo, intentaré dar una idea intuitiva del significado matemático de la ecuación [math] f ‘= f [/ math] (llamemos a esta ecuación E).

Asumiré que está familiarizado con las ecuaciones diferenciales lineales ordinarias y la exposición al álgebra lineal básica (valores propios) para lo que sigue.

En el álgebra lineal elemental (es decir, los escalares son números reales), tratamos con transformaciones lineales (escala y rotación) de objetos llamados vectores (puntos en el espacio). Los vectores se pueden representar como una sola columna de números, mientras que una transformación se representa mediante una matriz rectangular (generalmente cuadrada) de números llamada matriz que opera en ese vector para producir otro vector (el vector transformado). Mantenga esta idea de matriz como operador en tu mente para lo que sigue.

En la clase habitual de álgebra lineal usamos esta representación, con [math] A [/ math] como matriz y [math] \ mathbf {b}, \ mathbf {x} [/ math] como vectores, para resolver dos problemas:

[math] A \ mathbf {x} = \ mathbf {0} [/ math] (homogéneo – las soluciones definen el espacio nulo )

[math] A \ mathbf {x} = \ mathbf {b} [/ math] (no homogéneo)

y

[math] A \ mathbf {x} = \ lambda \ mathbf {x}, \ lambda \ in \ mathbb {R} [/ math] (eigenvalue-eigenvector)

En particular, el segundo de estos (el problema del vector propio-valor propio ), es relevante para la importancia de E. Dice que estamos encontrando un vector [math] \ mathbf {x} [/ math] que permanece “en su línea” cuando aplicamos la transformación [math] A [/ math] (no cambia hasta un orden de escala [math] \ lambda [/ math]).

Si subimos un nivel de abstracción, podemos identificar [matemáticas] A [/ matemáticas] como un operador lineal [matemáticas] L [/ matemáticas] , que opera en un operando [matemáticas] x [/ matemáticas] (un vector, en este caso); por lo tanto, podemos reformular nuestras dos ecuaciones anteriores en términos de operadores:

[matemática] Lx = 0 [/ matemática] (homogénea)

[matemática] Lx = b [/ matemática] (no homogénea)

y

[matemática] Lx = \ lambda x, \ lambda \ in \ mathbb {R} [/ math] ( operando eigenvalue-eigen)

Esto no parece demasiado interesante, ya que parece que simplemente cambiamos el nombre de las cosas … pero la clave es que [math] L [/ math] no tiene que ser una matriz y [math] x, b [/ math ] no tienen que ser vectores numéricos: son solo objetos que “actúan como” matrices y vectores. La propiedad clave de [math] L [/ math] es la propiedad de linealidad:

[matemáticas] L (x + y) = Lx + Ly [/ matemáticas]

Bien, entonces podemos ver cómo el álgebra lineal elemental es un caso especial de operadores lineales (es decir, transformaciones lineales en espacios vectoriales de dimensiones finitas sobre los números reales). El objetivo de todo esto era introducir un nuevo nivel de abstracción con el que quizás no estés familiarizado con el uso de ideas con las que puedas estar familiarizado (por lo tanto, será un poco más “intuitivo”).

Ahora, a las ecuaciones diferenciales ordinarias lineales (LODE), que es donde vive E. Los LODE expresan una relación entre una combinación lineal de una función de una sola variable [matemática] f [/ matemática] (la variable generalmente se suprime por brevedad) y sus derivados ([matemática] f ‘, f’ ‘, f’ ” … [/ Math] [math] [/ math] y alguna otra función [math] g. [/ Math]

[matemáticas] a_1f + a_2f ‘+ a_3f’ ‘= g [/ matemáticas]

Resulta que la diferenciación ([matemática] D [/ matemática]) también es un operador lineal:

[matemáticas] D (f + g) = Df + Dg [/ matemáticas]

Y, al igual que podemos multiplicar matrices (es decir, transformaciones lineales [matemáticas] A ^ 2 = AA) [/ matemáticas], podemos hacer lo mismo para la diferenciación:

[matemáticas] f ” = D (Df) = D ^ 2f [/ matemáticas]

Entonces, podemos representar cada LODE en términos de nuestra abstracción del operador lineal:

[matemáticas] a_1f + a_2f ‘+ a_3f’ ‘= g \ to Lf = g [/ math]

dónde

[matemáticas] L = a_1 + a_2D + a_3D ^ 2 [/ matemáticas]

Entonces, inmediatamente vemos los paralelos con el álgebra lineal:

[matemática] a_1f + a_2f ‘+ a_3f’ ‘= 0 [/ matemática] (homogénea)

[matemática] a_1f + a_2f ‘+ a_3f’ ‘= g [/ matemática] (no homogénea)

y

[math] a_1f + a_2f ‘+ a_3f’ ‘= \ lambda f, \ lambda \ in \ mathbb {R} [/ math] (función eigenvalue-eigen)

Por lo tanto, podemos volver a expresar E como un caso especial del problema de la función eigenvalue-eigen:

[matemáticas] Df = \ lambda f [/ matemáticas]

¿Cuál es la solución a esta ecuación (es decir, cuál es la forma de [math] f [/ math])? Es [matemáticas] f = \ exp (rx). [/ Matemáticas]

Entonces, [math] \ exp (rx) [/ math] son funciones propias del operador de diferenciación , al igual que las matrices tienen vectores propios .

Una vez que conoce los eigenoperandos de un operador lineal, podemos definir una base de soluciones para la ecuación homogénea de ese operador. Para los LODE homogéneos, estos son en términos de funciones propias, al igual que podemos representar soluciones a problemas de álgebra lineal en términos de vectores propios.

Decimos que estas funciones propias forman un espacio vectorial que abarca las soluciones, con una base definida por estas funciones propias. Los paralelos con el álgebra lineal no son casuales:

Digamos que [math] f_1, f_2 [/ math] son ​​soluciones a la ecuación del operador diferencial [math] Qf = 0 [/ math] donde [math] Q = \ sum_0 ^ 2 a_iD ^ i [/ math]; entonces, por linealidad, sabemos que [math] cf_1 + df_2 [/ math] también es una solución para [math] c, d \ in \ mathbb {R} [/ math]. Por lo tanto, podemos representar soluciones a esta ecuación usando un viejo espacio vectorial bidimensional simple sobre los reales: [matemática] (c, d) \ iff cf_1 + df_2 [/ matemática], donde nuestra base ya no es la habitual [matemática ] \ hat {i}, \ hat {j} [/ math] pero [math] f_1, f_2 [/ math].

El significado principal de E es que su solución es la base del espacio de solución de [math] (D + c) f = 0, [/ math], que es el LODE más simple y no trivial.

Podemos generalizar a operadores diferenciales lineales más complejos (es decir, polinomios de operadores) si ampliamos el espacio de soluciones para incluir polinomios multiplicados por [math] \ exp (rx)) [/ math]. Específicamente, las funciones propias de cualquier operador diferencial lineal ([math] \ sum_0 ^ N a_iD ^ i) [/ math] tienen la forma [math] \ exp (rx) \ sum_0 ^ {M} c_ix ^ i [/ math] [ 1] para algunos [matemática] M

Esto es bastante interesante, porque estas soluciones generales combinan dos formas funcionales muy fundamentales: polinomios y exponenciales, por lo que podemos decir que el espacio vectorial cuya base son las funciones exponenciales multiplicadas de polinomios es donde viven los LODE.

Por ejemplo, el problema de la función propia que implica el operador diferencial lineal [matemática] Q = (D + 1) ^ 2 [/ matemática] es:

[matemáticas] Qf = \ lambda f [/ matemáticas] con funciones propias de la forma [matemáticas] a_1 \ exp (rx) + a_2x \ exp (rx) [/ matemáticas]

Entonces, después de todo esto, podemos decir que desde un punto de vista matemático, el significado de la solución para E es que representa la función propia fundamental para las ecuaciones diferenciales lineales ordinarias, que representan una gran parte de las matemáticas y la ingeniería aplicadas.

También muestra por qué el álgebra lineal es tan poderoso … y genial 🙂

Notas al pie

[1] http://math.mit.edu/~jorloff/sup

Gracias por el A2A!

La función exponencial solía definirse:

[matemáticas] e ^ x = \ displaystyle \ lim_ {n \ to \ infty} \ left (1+ \ frac {x} {n} \ right) ^ n [/ math]

Pero ahora, la mayoría de la gente lo define como:

[matemáticas] e ^ x = 1 + x + \ frac {x ^ 2} {2!} \ cdots [/ matemáticas]

No podríamos tener esta expansión específica de la serie Taylor si [math] (e ^ x) ‘= e ^ x [/ math]

Y adivina cuál es una de las definiciones más populares de [math] \ pi [/ math] ahora:

[matemáticas] \ pi = \ frac {\ ln (-1)} {i} [/ matemáticas]

Y la [matemática] \ ln {x} [/ matemática] se define como la inversa de [matemática] e ^ x [/ matemática]

No es así como se define exactamente la función exponencial, pero es una propiedad importante de la función exponencial. Ni siquiera lo llamaría una “identidad”: generalmente no se cumple, solo para valores específicos de [math] f [/ math].

Lo que tienes allí es una ecuación diferencial: una ecuación que involucra una función y derivadas de esa función. La solución a una ecuación diferencial son funciones que satisfacen la ecuación diferencial.

No funciona, como está, como una definición de la función exponencial porque hay un número infinito de soluciones: [matemática] Ce ^ x = \ frac {d} {dt} (Ce ^ x) [/ matemática ] para todos los valores posibles de [math] C [/ math].

Una de las razones por las que esta propiedad es importante es porque (o la propiedad muy relacionada de [math] (e ^ {kx}) ‘= ke ^ {kx} [/ math], soluciones para [math] f’ = kf [/ math]) hace que resolver ecuaciones diferenciales lineales sea mucho más fácil. Y las ecuaciones diferenciales lineales surgen bastante.

Por ejemplo, si tuviera una masa [matemática] m [/ matemática] en un resorte con una constante de resorte [matemática] k [/ matemática], estaría sujeta a una fuerza de resorte [matemática] F_s = -kx [/ matemática ], donde [matemáticas] x [/ matemáticas] es el desplazamiento de la masa desde el equilibrio. Si tuviera un amortiguador (también conocido como “tablero”), habría una fuerza de amortiguación proporcional a la velocidad de la masa, produciendo una [matemática] F_d = -d \ dot x [/ matemática]. La segunda ley de Newton dice que [matemáticas] F_s + F_d = m \ ddot x [/ matemáticas], por lo que en general tenemos [matemáticas] m \ ddot x -d \ dot x -kx = 0 [/ matemáticas], una ecuación diferencial en [matemáticas] x (t) [/ matemáticas] que necesita ser resuelto.

Esto se puede resolver asumiendo una solución de la forma [math] x = e ^ {ct}, \ dot x = ce ^ {ct}, \ ddot x = c ^ 2e ^ {ct} [/ math] para obtenernos [matemáticas] mc ^ 2e ^ {ct} -dce ^ {ct} -ke ^ {ct} = e ^ {ct} (mc ^ 2-dc-k) = 0 [/ matemáticas]

Como [math] e ^ {ct} \ neq 0 [/ math], podemos dividirlo para obtener [math] mc ^ 2-dc-k = 0 [/ math], una ecuación cuadrática en [math] c [ / math], que podemos resolver fácilmente, dándonos las soluciones para el problema original.