¿Cuáles son algunas aplicaciones de la serie Taylor?

Mientras que las aproximaciones de Taylor rara vez se utilizan para evaluar directamente la función que no tiene una expresión de forma cerrada, son muy útiles en el análisis numérico para la aproximación de error y las estimaciones de límite de error.

El problema con la expansión de Taylor es que, si bien es muy bueno para describir una determinada función de buen comportamiento local, puede salir terriblemente mal una vez que nos alejamos del punto alrededor del cual hicimos la expansión. (pruébelo para funciones sinusoidales o funciones con singularidades, como [math] 1 / x [/ math]).

Por otro lado, es muy bueno para un análisis riguroso de la tasa de convergencia de errores para otros métodos de aproximaciones. Un ejemplo es el siguiente. Considere la fórmula general 1-D para la expansión de Taylor, siendo el último término el resto.

[matemáticas] \ begin {align}
f (x) = f (x_ {0}) + {f} ‘(x_ {0}) (x-x_ {0}) + \ ldots + \\
+ \ frac {f ^ {(k)} (\ xi) (x- \ xi) ^ {k}} {k!} \ end {align} [/ math]

Aquí tenemos una expresión para una aproximación para f (x) alrededor del punto x0. Si en su lugar quisiéramos obtener la aproximación para f (x + h) alrededor del punto x, terminaríamos con la siguiente expresión, después de aplicar lo que uno de mis maestros favoritos solía llamar gimnasia matemática.

[matemáticas] \ begin {align}
f (x + h) = f (x) + {f} ‘(x) h + \ frac {h ^ {2}} {2} {f}’ ‘(x) \\
+ \ ldots + \ frac {(x + h – \ xi) ^ {k}} {k!} f ^ {(k)} (x + h – \ xi) ^ {k}
\ end {align} [/ math]

Ahora, tomando las [matemáticas] f (x) [/ matemáticas] en el lado izquierdo y dividiendo entre h, obtenemos
[matemáticas] \ begin {align} \ frac {f (x + h) – f (x)} {h} = \\
= {f} ‘(x) + \ frac {h} {2} {f}’ ‘(x) + \ ldots + \\ \ frac {(x + h – \ xi) ^ {k}} {k! } f ^ {(k)} \ frac {(x + h – \ xi) ^ {k}} {h} \ end {align} [/ math]

En el lado izquierdo, terminamos con una expresión conocida para el cociente diferencial, con [math] h [/ math] que no necesariamente va a cero. Sin embargo, en este punto, podemos deducir lo siguiente. Si nuestra función es tal que su segunda derivada y las derivadas más altas son cero, la fórmula de la izquierda es exactamente igual a su derivada, pero de lo contrario solo es aproximadamente igual.

Una función cuyas segundas y mayores derivadas son cero estaría en la forma [math] a * x + b [/ math]. Pero ya sabemos que la derivada de la función lineal es constante a, que podemos obtener tomando una diferencia en [math] y [/ math], dividiendo por la diferencia en [math] x [/ math], sin importar cuánto separen son. Pero hay casos en que no es tan trivial. Utilizamos el mismo método cuando analizamos por qué la fórmula de Simpson 3/8 es exacta para polinomios cúbicos.

Después de aplicar el teorema del valor medio, podemos extraer algo más de información. Podemos reducir la expresión anterior a la siguiente.
[matemáticas] \ frac {f (x + h) – f (x)} {h} = {f} ‘(x) + \ frac {h} {2} {f}’ ‘(\ epsilon) [/ matemáticas ], donde [math] \ epsilon [/ math] está en algún lugar entre [math] x [/ math] y [math] x + h [/ math].

Ahora podemos decir algo más sobre la convergencia de errores. Resolver para [math] \ epsilon [/ math] está casi siempre fuera de nuestro alcance, pero podemos estimar cómo se comportará nuestro error. Al disminuir nuestro tamaño de paso h a la mitad, también disminuimos nuestro error aproximadamente a la mitad (tenga en cuenta que el valor de [math] \ epsilon [/ math] también cambia entonces, por lo que nuestra función debe comportarse bien, significa continuo y dos veces diferenciable en el intervalo [matemática] (x, x + h) [/ matemática] para que podamos asumir que el valor de [matemática] {f} ” (\ epsilon_ {h1}) [/ matemática] no sería drásticamente diferente a [math] {f} ” (\ epsilon_ {h2}) [/ math]). Si, por ejemplo, tomamos la misma técnica y en su lugar nos interesamos en encontrar la tasa de error para [math] \ frac {f (x + h) – f (xh)} {2h} [/ math], terminaríamos encontrando que la tasa de error es cuadrática!

Son las expansiones de Taylor las que nos ayudan a desarrollar técnicas aún más avanzadas, donde manipulamos las expresiones de tal manera que cancelemos la mayor cantidad de errores posible utilizando aproximaciones pasadas. Terminamos con algunas herramientas muy poderosas para la integración, como el procedimiento de Romberg, etc.

Entonces, para tl; dr, las expansiones de Taylor son indispensables en el análisis numérico, pero no para uso directo, sino para verificar la exactitud, los límites de error y las tasas de convergencia para otros métodos.

Creo que es seguro decir que la aplicación más importante es que la serie Taylor se usa para calcular valores aproximados de casi todas las funciones importantes en calculadoras y computadoras. ¿Quieres saber el seno de algún ángulo? Puedes ponerlo en la calculadora y obtener la respuesta a muchos decimales, pero ¿cómo la evalúa?

Las series de Taylor están en el corazón del cálculo que se está realizando. Supongo que algunos podrían usar la serie Taylor directamente, pero más a menudo el uso de la serie Taylor está oculto como una entrada al algoritmo CORDIC que necesita los valores de [math] \ arctan 2 ^ {- n} [/ math] para los primeros pocos valores numéricos de [math] n [/ math] que están codificados después de haber sido encontrados usando la serie Taylor.

Puede ser útil en física si te enfrentas a una ecuación diferencial que no puedes resolver. Por ejemplo, la ecuación del péndulo:
[matemáticas] l \ frac {d ^ 2} {dt ^ 2} \ theta = -g \ sin \ theta [/ matemáticas]
Si [math] \ theta [/ math] es “pequeño”, la aproximación de Taylor dice [math] \ sin \ theta \ approx \ theta [/ math] para que la ecuación se vuelva
[matemáticas] l \ frac {d ^ 2} {dt ^ 2} \ theta + g \ theta = 0 [/ matemáticas]
Que es mucho más fácil de resolver

Aquí hay uno lindo: la Regla del 72 nos dice que si una inversión genera r% de interés cada año, se necesitarán aproximadamente 72 divididos por r años para duplicarse. Es útil para las finanzas cotidianas, ya que dividir es mucho más fácil que tomar un logaritmo en tu cabeza.

¿Cómo obtenemos esta extraña regla?

Nuestro dinero crece a la tasa [matemática] (1 + r) ^ {t} [/ matemática], por lo que queremos calcular cuánto tiempo se tarda en duplicar [matemática] \ log_ {1 + r} 2 = \ frac {\ ln 2} {\ ln (1 + r)}. [/ Matemáticas]

Como generalmente estamos trabajando con tasas de interés donde r está cerca de 0 (entre 0 y 0.2, digamos), usaremos una expansión de Taylor de primer orden alrededor de r = 0.
[matemáticas] \ ln (1 + r) \ aprox \ ln (1 + 0) + r * \ frac {1} {1 + 0} = r [/ matemáticas]

Dado que [matemática] \ ln 2 \ aprox .693 \ aprox .72 [/ matemática] para propósitos de divisibilidad, el número de años para que la inversión se duplique es 72 dividido por la tasa de interés en puntos porcentuales.

En el método de diferencias finitas generalizadas, las funciones básicas se pueden interpretar como los términos de una serie de Taylor
[matemáticas] [P = x, y, \ frac {x ^ 2} {2}, xy, \ frac {y ^ 2} {2}… ..] ^ T [/ matemáticas]

Derivados de la matriz

Integración aproximada numéricamente.

Ver también: la respuesta de Lance Diduck a ¿Cómo puedo estimar el movimiento de precios de las opciones usando Delta y Gamma?

Este enlace resume mi larga respuesta: ¿Cuáles son las aplicaciones prácticas de la serie Taylor?

Las siguientes notas abordan su pregunta con precisión:
Página en bard.edu

Bard es una universidad de pregrado en Nueva York.