¿Cuándo se aplica prácticamente la serie polinomial de Taylor?

La respuesta corta (pero inútil): en todas partes.

La respuesta más larga (pero más técnica): las series de Taylor aparecen en física, matemáticas aplicadas e ingeniería (y otras ciencias también, pero tengo menos experiencia con ellas), aunque a menudo se pasan por alto en una derivación. Muchos fenómenos del mundo real son altamente no lineales, pero antes del advenimiento de las computadoras, los científicos no podían manejar estas no linealidades. Entonces, lo más fácil de hacer fue Taylor expandir una función de interés (por ejemplo, la solución a una ecuación diferencial) y solo considerar hasta el término lineal (o si tiene suerte, cuadrático). La matemática para tratar con tales ecuaciones está altamente desarrollada. Esta es la razón de tales “leyes” físicas como la ley de Hooke (que describe la relación entre la fuerza y ​​el estiramiento de un cuerpo elástico) y la ley de Ohm (que describe la relación entre la resistencia, el voltaje y la corriente en un sistema eléctrico). También es la razón por la cual estas ‘leyes’ se rompen una vez que se va más allá de cierta región de interés donde la función se comporta linealmente (por ejemplo, si comprime un resorte lo suficientemente fuerte, comenzará a exhibir una resistencia no lineal a la fuerza).

Más allá de los resultados teóricos, las series de Taylor se utilizan en todo el Análisis Numérico (se podría argumentar que un curso de posgrado en análisis numérico es realmente un ejercicio de aplicaciones del teorema de Taylor [a menudo en muchas dimensiones]), la rama de las matemáticas interesadas en resolver problemas que no poseen buenas soluciones analíticas (es decir, la mayoría de las interesantes). Las series de Taylor aparecen en técnicas numéricas para resolver ecuaciones diferenciales y en problemas de optimización.

Las respuestas hasta ahora son geniales. Aquí hay otro ejemplo:

Las series de Taylor son útiles en las peleas callejeras matemáticas porque pueden proporcionar aproximaciones intuitivas rápidas de valores aparentemente difíciles de calcular sobre la marcha.

Las aproximaciones de segundo o tercer grado generalmente le dan una idea bastante buena de cuán grande es un número. Por ejemplo:
[matemáticas] e ^ x \ sim 1 + x + \ frac {x ^ 2} {2} [/ matemáticas]
[matemáticas] \ ln (1 + x) \ sim x – \ frac {x ^ 2} {2} [/ matemáticas]
[matemáticas] \ sen x \ sim xx ^ 3/6 [/ matemáticas]
Y, por lo general, el cálculo es muy simple porque puede ignorar el término cuadrático / cúbico a menos que desee saber qué tan cerca está la estimación. Así por ejemplo,
[matemáticas] \ sqrt {e} \ sim 1.5, [/ matemáticas]
[matemáticas] \ ln (1.5) \ sim .5 [/ matemáticas]
[matemáticas] \ sin 1 ^ \ circ \ sim \ pi / 180 \ sim 3/180 = 1/60. [/ matemáticas]
Además, la expansión taylor de [math] \ sin x [/ math] ofrece otra forma de ver [math] \ lim_ {x \ to 0} \ frac {\ sin x} {x} = 1 [/ math] afuera del geométrico que a menudo ves en los libros de texto.

Como beneficio adicional, aquí hay una aplicación adicional que me gusta especialmente:

Por series de Taylor, tenemos
[matemáticas] e ^ k = \ sum_ {i = 0} ^ {\ infty} \ frac {k ^ i} {i!}> \ sum_ {i = k} ^ {k} \ frac {k ^ i} { i!} = \ frac {k ^ k} {k!} [/ math]

Puede pensar que tal límite es arbitrario, pero si observa las relaciones entre términos consecutivos en la expansión, verá que [math] k ^ k / k! [/ Math] es, de hecho, el término más amplio, por lo que este es Un muy buen límite. Ahora, ¿cómo usamos esto?

A veces es molesto tratar con binomios como [math] \ binom {n} {k} [/ math] porque todos los términos multiplicados son diferentes, por lo que podemos aproximarlo. Date cuenta cómo

[matemáticas] \ binom {n} {k} = \ frac {n (n – 1) \ cdots (n – k + 1)} {k (k – 1) \ cdots (k – k + 1)} [/ matemáticas]

Y así, la mayoría de los términos están “bastante cerca” de [matemáticas] \ frac {n} {k}. [/ Matemáticas] Entonces obtenemos
[matemáticas] \ binom {n} {k} \ ge \ frac {n} {k} \ cdot \ frac {n} {k} \ cdots \ frac nk = \ left (\ frac {n} {k} \ right ) ^ k [/ matemáticas]
y
[matemáticas] \ binom {n} {k} <\ frac {n ^ k} {k!} = \ frac {n ^ k} {k ^ k} \ cdot \ frac {k ^ k} {k!} < \ frac {n ^ ke ^ k} {k ^ k} = \ left (\ frac {ne} {k} \ right) ^ k [/ math]
Entonces obtenemos la aproximación [matemática] \ left (\ frac {n} {k} \ right) ^ k \ le \ binom nk <\ left (\ frac {en} {k} \ right) ^ k [/ math] .

Por supuesto, siempre existe la aproximación de Stirling, pero este truco [matemático] e ^ k [/ matemático] le brinda una manera agradable e intuitiva de convencerse de que [matemático] \ binom nk [/ matemático] está “bastante cerca” de [ matemáticas] (\ frac nk) ^ k [/ matemáticas]. También es más limpio que la aproximación de Stirling sin ser demasiado débil, lo que probablemente explica por qué esta aproximación es aparentemente muy popular.

Ayudó a Einstein a probar la existencia del átomo.

El uso de Taylor Polynomials fue muy importante para Einstein en el estudio del movimiento browniano. Básicamente, encontrar una manera de demostrar empíricamente que los átomos existieron.

Esencialmente, lo que estaba haciendo era tratar de descubrir cómo se desplazaban las partículas durante un período de tiempo. Fue modelado como una distribución de probabilidad

La probabilidad de encontrar una partícula en ‘x’ después del tiempo ‘tau’:

[matemáticas] f (x, t + \ tau) = \ int _ {- \ infty} ^ {\ infty} f (x – \ epsilon, t) \ Phi (\ epsilon) d \ epsilon [/ math]

En nuestra formulación, suponemos que tanto el desplazamiento como el tiempo son muy pequeños. Esto sugiere que si tomamos la expansión taylor de las ecuaciones anteriores con respecto a la posición y el tiempo, y la truncamos en cierto punto, podemos obtener una muy buena aproximación de la ecuación desconocida.

[matemáticas] f (x, t + \ tau) \ aprox. f (x, t) + \ tau \ frac {d} {dt} f (x, t) \ cdots [/ math]

[matemáticas] f (x- \ epsilon, t) \ aprox. f (x, t) – \ epsilon \ frac {d} {dx} f (x, t) + \ frac {\ epsilon ^ 2} {2} \ frac {d ^ 2} {dx ^ 2} \ cdots [/ math]

Al hacer que las sustituciones vuelvan a la integral, podemos llegar a la última línea donde las integrales son solo de nuestra distribución de probabilidad (Phi). Luego, utilizando algunos conocimientos de probabilidad y estadística, podemos cambiarlos de integrales complicadas a solo 1 y 0.

Recuerde, en este punto, ¡ni siquiera hemos considerado cuál era realmente la función!


Poco de historia

Solo tomando estas expansiones fue Einstein capaz de simplificar las ecuaciones desconocidas para encontrar las relaciones que finalmente permitieron a científicos como Jean Baptiste Perrin publicar su artículo ganador del Premio Nobel sobre “Estructura discontinua de la materia”, donde demostró experimentalmente la existencia de átomos utilizando las ecuaciones de Einstein .


Esperemos que esto sirva como un ejemplo inspirador de cómo tomar la serie taylor de una función (bajo los supuestos correctos) puede conducir a las simplificaciones necesarias para avanzar con un cierto problema.

Solo soy un estudiante universitario en Matemática Aplicada, pero ha habido muchas veces en múltiples cursos donde tomar la serie Taylor me ha permitido avanzar con problemas bastante complejos.

Esta es la primera vez que respondo una pregunta, así que espero haber hecho un buen trabajo …

EDITAR: algunas ecuaciones no aparecían.

Aquí está la aplicación más práctica del teorema de Taylor que he escuchado, tomada de Alex R. en MathOverflow:

Durante la revolución rusa, hay una historia de un matemático (he
escuchó que Igor Tamm puede ser el único) que fue confundido por los rebeldes para ser un
espía comunista. Fue capturado rápidamente por una pandilla local y
interrogado Cuando dijo que era matemático, el líder de la pandilla
le pidió que respaldara su reclamo derivando la fórmula para el Taylor
Teorema restante. Le advirtieron que si fallaba, le dispararían
el punto. Después de un poco de sudoración, el matemático finalmente obtuvo el
resultado. El líder de la pandilla quedó satisfecho con la prueba y lo dejó ir.

En la práctica, las series de Taylor truncadas nunca se usan para cálculos numéricos, ya que las mejores representaciones de series casi siempre están disponibles. Esto se debe esencialmente a que están limitados a ser polinomios y solo se aproximan a la estructura uniforme de una función en un solo punto; relajar estas condiciones produce herramientas mucho más útiles. Sin embargo, su simplicidad los hace útiles por razones teóricas. Estoy lejos de ser un experto en análisis, pero por ejemplo, puede ver todo el tema (extremadamente importante) del análisis complejo como un ejemplo.