Mientras que las aproximaciones de Taylor rara vez se utilizan para evaluar directamente la función que no tiene una expresión de forma cerrada, son muy útiles en el análisis numérico para la aproximación de error y las estimaciones de límite de error.
El problema con la expansión de Taylor es que, si bien es muy bueno para describir una determinada función de buen comportamiento local, puede salir terriblemente mal una vez que nos alejamos del punto alrededor del cual hicimos la expansión. (pruébelo para funciones sinusoidales o funciones con singularidades, como [math] 1 / x [/ math]).
Por otro lado, es muy bueno para un análisis riguroso de la tasa de convergencia de errores para otros métodos de aproximaciones. Un ejemplo es el siguiente. Considere la fórmula general 1-D para la expansión de Taylor, siendo el último término el resto.
[matemáticas] \ begin {align}
f (x) = f (x_ {0}) + {f} ‘(x_ {0}) (x-x_ {0}) + \ ldots + \\
+ \ frac {f ^ {(k)} (\ xi) (x- \ xi) ^ {k}} {k!} \ end {align} [/ math]
- ¿Qué es P (A | B)?
- ¿Cómo hubo tantos matemáticos y físicos alemanes pioneros en los siglos XVIII, XIX y principios del XX?
- ¿Quiénes son algunos matemáticos y científicos que no asistieron a universidades de élite?
- ¿Cuál es el significado del dominio de frecuencia?
- ¿Qué hacen los matemáticos cuando alguien cuestiona sus axiomas?
Aquí tenemos una expresión para una aproximación para f (x) alrededor del punto x0. Si en su lugar quisiéramos obtener la aproximación para f (x + h) alrededor del punto x, terminaríamos con la siguiente expresión, después de aplicar lo que uno de mis maestros favoritos solía llamar gimnasia matemática.
[matemáticas] \ begin {align}
f (x + h) = f (x) + {f} ‘(x) h + \ frac {h ^ {2}} {2} {f}’ ‘(x) \\
+ \ ldots + \ frac {(x + h – \ xi) ^ {k}} {k!} f ^ {(k)} (x + h – \ xi) ^ {k}
\ end {align} [/ math]
Ahora, tomando las [matemáticas] f (x) [/ matemáticas] en el lado izquierdo y dividiendo entre h, obtenemos
[matemáticas] \ begin {align} \ frac {f (x + h) – f (x)} {h} = \\
= {f} ‘(x) + \ frac {h} {2} {f}’ ‘(x) + \ ldots + \\ \ frac {(x + h – \ xi) ^ {k}} {k! } f ^ {(k)} \ frac {(x + h – \ xi) ^ {k}} {h} \ end {align} [/ math]
En el lado izquierdo, terminamos con una expresión conocida para el cociente diferencial, con [math] h [/ math] que no necesariamente va a cero. Sin embargo, en este punto, podemos deducir lo siguiente. Si nuestra función es tal que su segunda derivada y las derivadas más altas son cero, la fórmula de la izquierda es exactamente igual a su derivada, pero de lo contrario solo es aproximadamente igual.
Una función cuyas segundas y mayores derivadas son cero estaría en la forma [math] a * x + b [/ math]. Pero ya sabemos que la derivada de la función lineal es constante a, que podemos obtener tomando una diferencia en [math] y [/ math], dividiendo por la diferencia en [math] x [/ math], sin importar cuánto separen son. Pero hay casos en que no es tan trivial. Utilizamos el mismo método cuando analizamos por qué la fórmula de Simpson 3/8 es exacta para polinomios cúbicos.
Después de aplicar el teorema del valor medio, podemos extraer algo más de información. Podemos reducir la expresión anterior a la siguiente.
[matemáticas] \ frac {f (x + h) – f (x)} {h} = {f} ‘(x) + \ frac {h} {2} {f}’ ‘(\ epsilon) [/ matemáticas ], donde [math] \ epsilon [/ math] está en algún lugar entre [math] x [/ math] y [math] x + h [/ math].
Ahora podemos decir algo más sobre la convergencia de errores. Resolver para [math] \ epsilon [/ math] está casi siempre fuera de nuestro alcance, pero podemos estimar cómo se comportará nuestro error. Al disminuir nuestro tamaño de paso h a la mitad, también disminuimos nuestro error aproximadamente a la mitad (tenga en cuenta que el valor de [math] \ epsilon [/ math] también cambia entonces, por lo que nuestra función debe comportarse bien, significa continuo y dos veces diferenciable en el intervalo [matemática] (x, x + h) [/ matemática] para que podamos asumir que el valor de [matemática] {f} ” (\ epsilon_ {h1}) [/ matemática] no sería drásticamente diferente a [math] {f} ” (\ epsilon_ {h2}) [/ math]). Si, por ejemplo, tomamos la misma técnica y en su lugar nos interesamos en encontrar la tasa de error para [math] \ frac {f (x + h) – f (xh)} {2h} [/ math], terminaríamos encontrando que la tasa de error es cuadrática!
Son las expansiones de Taylor las que nos ayudan a desarrollar técnicas aún más avanzadas, donde manipulamos las expresiones de tal manera que cancelemos la mayor cantidad de errores posible utilizando aproximaciones pasadas. Terminamos con algunas herramientas muy poderosas para la integración, como el procedimiento de Romberg, etc.
Entonces, para tl; dr, las expansiones de Taylor son indispensables en el análisis numérico, pero no para uso directo, sino para verificar la exactitud, los límites de error y las tasas de convergencia para otros métodos.