¿Cuál es la integral del pecado (x)?

Para determinar la antiderivada de sin (x), puede buscarla fácilmente en Internet: es -cos (x). Pero probablemente ya lo sabías. La pregunta es, ¿cómo sabes que es verdad?

Déjame darte una receta, pero tendrás que hacer el trabajo tú mismo.

1) primero recuerda cómo se definen el pecado y el cos en un triángulo rectangular. Luego dibuja un triángulo rectangular grande. Nombre uno de los dos ángulos <90 ° como 'x'.

2) defina la pieza de línea diagonal de longitud 1. Ahora la longitud de la pieza de línea no diagonal que está unida a x es igual a cos (x). Enfrente de x está la pieza de línea con longitud sin (x). Esto es así por definición de pecado y cos icw la diagonal que tiene longitud 1.

3) ahora dibuja casi el mismo triángulo un poco diferente en el mismo lugar. La diferencia es: aumentar xa poco con dx. Dibuja la línea diagonal con la misma longitud, comenzando en la esquina de x, pero yendo en una dirección ligeramente diferente porque x ha aumentado.

4) si dx es pequeño, el punto final de la nueva diagonal estará a una distancia dx del punto final anterior porque la diagonal tiene longitud 1. Dibuje un pequeño triángulo con este dx como su pieza de línea diagonal y sus lados vertical y horizontal (paralelo a los lados horizontal y vertical del triángulo grande) para crear un pequeño triángulo rectangular. Observe la forma similar en comparación con el triángulo grande.

5) ahora observe que cos (x) es ligeramente más pequeño y que sin (x) es ligeramente más grande en el nuevo triángulo grande en comparación con el viejo triángulo grande.

6) ahora usa los ángulos iguales en el triángulo pequeño y el triángulo grande para demostrar que d (cos (x)) = -sin (x) × dx. O en palabras: que cos (x) en el nuevo triángulo es sin (x) × dx más pequeño.

7) Para dx yendo a 0 esto es perfectamente correcto y usted demostró que:
-d (cos (x)) / dx = sin (x).
O en otra notación:
-cos (x) ‘= sin (x). Y dado que una constante se diferencia a 0 más generalmente:
(-cos (x) + C) ‘= sin (x)

La integral indefinida de sin (x) es simplemente preguntar, tomando la derivada de qué, dará el resultado de sin (x). Bueno, sabemos por derivados trigonométricos básicos esa derivada de cos (x) = -sin (x). Por lo tanto, con álgebra simple podemos descubrir esa derivada de

-cos (x) = sin (x). Por lo tanto, la integral de sin (x) es -cos (x).

Si encontrar la antiderivada es lo mismo que integrar (estudiante estadounidense aquí, tal vez nombremos estas cosas de manera diferente), entonces esa es solo una regla que debes aprender para sin (x) y cos (x). Al igual que las derivadas, donde d / dx sin (x) = cos (x) y d / dx cos (x) = -sin (x), la integración es lo opuesto. Entonces, la integral de cos (x) = sin (x) y la integral de -sin (x) = cos (x). Por lo tanto, se deduce que la integral de -cos (x) = -sin (x) y la integral de sin (x) = -cos (x).

Hay una prueba matemática de POR QUÉ esto es cierto que tiene que ver con las tasas de cambio y probablemente sea innecesariamente complicado, mi consejo es que aprenda la respuesta a sin (x) y cos (x), ya que siempre es la misma. Quizás alguien que sea mucho mejor en matemáticas que yo pueda explicar eso.

La antiderivada de una función [matemática] g (x) [/ matemática] se define como

[matemáticas] \ displaystyle \ int g (x) dx = f (x) + c [/ matemáticas]

para una constante [matemáticas] c [/ matemáticas]. La derivada de [math] – \ cos (x) [/ math] es [math] \ sin (x) [/ math] por lo que, utilizando la definición, concluimos que la antiderivada de [math] \ sin (x) [/ math ] es [matemáticas] – \ cos (x) + c [/ matemáticas]. Si no tiene claro los detalles técnicos de los derivados, intente diferenciar / integrar las fórmulas

[matemáticas] \ displaystyle \ sin (x) = \ frac {e ^ {ix} -e ^ {- ix}} {2i}, ~ \ cos (x) = \ frac {e ^ {ix} + e ^ { -ix}} {2}. [/ matemáticas]

A2A

Bueno, para determinar la antiderivada de [math] \ sen x [/ math], debes conocer tus límites y, de hecho, tus derivados.

Dejame explicar:

[matemáticas] \ frac {d (\ sin x)} {dx} = \ displaystyle \ lim _ {\ epsilon \ rightarrow 0} \ frac {\ sin (x + \ epsilon) – \ sin x} {\ epsilon} [/ math ]

Pero tenemos

[matemáticas] \ sin (x + \ epsilon) – \ sin x = 2 \ cos (\ frac {x + \ epsilon + x} {2}) \ sin (\ frac {x + \ epsilon-x} {2}) = 2 \ cos (x + \ frac {\ epsilon} {2}) \ sin (\ frac {\ epsilon} {2}) [/ math]

Entonces

[matemáticas] \ frac {d (\ sin x)} {dx} = \ displaystyle \ lim _ {\ epsilon \ rightarrow 0} \ frac {2 \ cos (x + \ frac {\ epsilon} {2}) \ sin ( \ frac {\ epsilon} {2}} {\ epsilon} = (\ displaystyle \ lim _ {\ epsilon \ rightarrow 0} \ cos (x + \ frac {\ epsilon} {2})) (\ displaystyle \ lim _ {\ epsilon \ rightarrow 0} \ frac {\ sin \ frac {\ epsilon} {2}} {\ frac {\ epsilon} {2}}) [/ math]

Como

[matemáticas] \ lim_ {x \ rightarrow 0} \ frac {sin x} {x} = 1 [/ matemáticas]

[matemáticas] \ frac {d (\ sin x)} {dx} = \ displaystyle \ lim _ {\ epsilon \ rightarrow 0} \ cos (x + \ frac {\ epsilon} {2}) = \ cos x [/ math ]

Lo que podría darnos una pista. Miremos a

[matemáticas] \ frac {d (\ cos x)} {dx} = \ displaystyle \ lim _ {\ epsilon \ rightarrow 0} \ frac {\ cos (x + \ epsilon) – \ cos x} {\ epsilon} [/ math ]

Tenemos

[matemáticas] \ cos (x + \ epsilon) – \ cos x = 2 \ sin (\ frac {x + \ epsilon + x} {2}) \ sin \ frac {x- (x + \ epsilon)} {2} = 2 \ sin (x + \ frac {\ epsilon} {2}) \ sin (- \ frac {\ epsilon} {2}) = -2 \ sin (x + \ frac {\ epsilon} {2}) \ sin \ frac {\ epsilon} {2} [/ math]

Entonces

[matemáticas] \ begin {align} \ frac {d (\ cos x)} {dx} & = \ displaystyle \ lim _ {\ epsilon \ rightarrow 0} \ frac {-2 \ sin (x + \ frac {\ epsilon} { 2}) \ sin \ frac {\ epsilon} {2}} {\ epsilon} \\ & = – (\ displaystyle \ lim _ {\ epsilon \ rightarrow 0} \ sin (x + \ frac {\ epsilon} {2}) ) (\ displaystyle \ lim _ {\ epsilon \ rightarrow 0} \ frac {\ sin \ frac {\ epsilon} {2}} {\ frac {\ epsilon} {2}}) \ end {align} [/ math]

Todavía tenemos

[matemáticas] \ lim_ {x \ rightarrow 0} \ frac {sin x} {x} = 1 [/ matemáticas]

Entonces

[matemáticas] \ frac {d (\ cos x)} {dx} = – \ displaystyle \ lim _ {\ epsilon \ rightarrow 0} \ sin (x + \ frac {\ epsilon} {2}) = – \ sin x [/ matemáticas]

Entonces

[matemáticas] \ int \ sin x dx = – \ cos x [/ matemáticas]

En primer lugar, debemos conocer la diferenciación de [math] \ sin (x) [/ math]

Deje [math] f (x) = \ sin (x) [/ math]

[matemáticas] f ‘(x) = \ cos (x) [/ matemáticas]

[matemática] f ”(x) = – \ sin (x) [/ matemática]

Ahora tenemos el grado de diferenciación 2 de [math] \ sin (x) [/ math], así que vamos a revertirlo.

[matemáticas] I = \ int \ sin (x) dx [/ matemáticas]

[matemáticas] I = – \ cos (x) + C [/ matemáticas]

Estoy aburrido. Este va a ser un viaje salvaje.

Tome [math] \ int_0 ^ a \ sin (x) \ mathrm dx [/ math], con [math] 0 \ le a \ le 2 \ pi [/ math]. Esta es el área bajo la curva [matemática] y = \ sin (x) [/ matemática] desde [matemática] 0 [/ matemática] a [matemática] a [/ matemática].

Suponga que [math] \ sin [/ math] es integrable. Esto significa que todas las sumas de Riemann son iguales, por lo que tomaremos la suma de Riemann correcta por simplicidad.

Divide el área debajo del gráfico en [matemática] n [/ matemática] rectángulos de igual tamaño. Esto significa que cada rectángulo tiene ancho [math] \ frac an [/ math]. Deje que los rectángulos sean tales que el vértice más a la derecha toque la curva. Por lo tanto, la [matemática] y [/ matemática] -coordinada del rectángulo [matemática] i [/ matemática] sería [matemática] \ sen \ left (\ frac {ia} n \ right) [/ matemática].

El área de todos los rectángulos estaría dada por,

[matemáticas] \ sum_ {i = 0} ^ n \ frac an \ sin \ left (\ frac {ia} n \ right) [/ math]

Podemos eliminar la constante [math] \ frac an [/ math] ya que es independiente del índice de suma [math] i [/ math]. Informalmente, a medida que el número de rectángulos debajo de la curva se aproxima a [math] \ infty [/ math], el área de los rectángulos se aproximará al área exacta debajo de la curva, [math] \ displaystyle \ int_0 ^ a \ sin (x) \ mathrm dx [/ math].

Por lo tanto tenemos,

[matemáticas] \ displaystyle \ int_0 ^ a \ sin (x) \ mathrm dx = \ lim_ {n \ to \ infty} \ frac an \ sum_ {i = 0} ^ n \ sin \ left (\ frac {ia} n \ right) [/ math].

Inicialmente tuve algunas dificultades con este resumen. Puede tomar la parte imaginaria de [matemáticas] \ sum_ {i = 0} ^ ne ^ {j \ cdot \ frac {ia} n} [/ matemáticas] evaluando esto con la fórmula de la serie geométrica. Sin embargo, con una manipulación inteligente, la serie en realidad se telescopía, así que lo haré primero. Gracias a esta pregunta de MSE que me dio esta idea. Dejemos que [math] \ zeta = \ frac an [/ math] para que no tenga que escribir eso una y otra vez.

Multiplique por [math] \ mathrm {cosec} \ left (\ frac \ zeta 2 \ right) \ sin \ left (\ frac \ zeta 2 \ right) = 1 [/ math], que contiene donde [math] \ zeta \ neq 2 \ pi k [/ math] para algún número entero [math] k [/ math], de lo contrario tenemos [math] 0/0 [/ math]. Pero nota

[matemáticas] \ displaystyle \ sin \ left (\ zeta i \ right) \ sin \ left (\ frac \ zeta 2 \ right) = \ frac 1 2 \ left (cos \ left (\ frac \ zeta 2 – i \ zeta \ right) – \ cos \ left (\ frac \ zeta 2 + i \ zeta \ right) \ right) = \ frac 1 2 \ left (\ cos \ zeta \ left (i – \ frac 1 2 \ right) – \ cos \ zeta \ left (i + \ frac 1 2 \ right) \ right) [/ math]

Por lo tanto, el summand es en realidad de la forma [math] \ sum a_ {i-1} – a_i [/ ​​math] y, por lo tanto, tiene telescopio

[matemáticas] \ displaystyle \ mathrm {cosec} \ left (\ frac \ zeta 2 \ right) \ sum_ {i = 0} ^ n \ frac 1 2 \ left (\ cos \ zeta \ left (i – \ frac 1 2 \ right) – \ cos \ zeta \ left (i + \ frac 1 2 \ right) \ right) = \ mathrm {cosec} \ left (\ frac \ zeta 2 \ right) \ left (\ cos \ frac {\ zeta } 2 – \ cos \ frac {(2n + 1) \ zeta} 2 \ right) [/ math]

¡Emocionarse!

[matemáticas] \ displaystyle \ int_0 ^ a \ sin (x) \ mathrm dx = \ frac 1 2 \ lim_ {n \ to \ infty} \ frac an \ left (\ mathrm {cosec} \ frac a {2n} \ left (\ cos \ frac a {2n} – \ cos \ frac {(2n + 1) a} {2n} \ right) \ right) [/ math]

En este punto lo verifiqué con Wolfram Alpha y fue correcto. Estoy en shock. Continuemos.

[matemáticas] \ displaystyle \ int_0 ^ a \ sin (x) \ mathrm dx = \ frac 1 2 \ lim_ {n \ to \ infty} \ frac an \ left (\ cot \ left (\ frac a {2n} \ right ) – \ mathrm {cosec} \ left (\ frac a {2n} \ right) \ cos \ frac {(2n + 1) a} {2n} \ right) [/ math]

Esto parece prometedor.

[matemáticas] \ displaystyle \ lim_ {n \ to \ infty} \ frac {a \ cot \ left (\ frac a {2n} \ right)} n = a \ frac {\ cot \ left (\ frac a {2n} \ right)} n = \ lim_ {n \ to \ infty} a \ frac {\ cos \ left (\ frac a {2n} \ right)} {n \ sin \ left (\ frac a {2n} \ right) }[/matemáticas]

El numerador se limita a [matemáticas] a \ cos (0) = a [/ matemáticas] y el denominador cae con una expansión en serie,

[matemáticas] \ displaystyle \ lim_ {n \ to \ infty} \ frac 1 {n \ sin \ left (\ frac a {2n} \ right)} = \ lim_ {n \ to \ infty} \ frac 1 {n \ left (\ frac {a} {2n} – \ frac {a ^ 3} {48n ^ 3} + \ mathcal O \ left (\ frac 1 {n ^ 5}) \ right) \ right)} = \ frac 1 {\ frac a 2} = \ frac 2 a [/ math]

Entonces,

[matemáticas] \ displaystyle \ frac 1 2 \ lim_ {n \ to \ infty} \ frac {a \ cot \ left (\ frac a {2n} \ right)} n = \ frac 1 2 \ cdot 2 = 1 [/ matemáticas]

Y

[matemáticas] \ displaystyle \ lim_ {n \ to \ infty} \ frac a {2n} \ csc \ left (\ frac a {2n} \ right) \ cos \ left (a + \ frac a {2n} \ right) = \ lim_ {n \ to \ infty} \ frac a {2n} \ csc \ left (\ frac a {2n} \ right) \ cdot \ lim_ {n \ to \ infty} \ cos \ left (a + \ frac a {2n} \ right) [/ math]

El primer límite cae nuevamente a una expansión en serie,

[matemáticas] \ displaystyle \ lim_ {n \ to \ infty} \ frac a {2n} \ csc \ left (\ frac a {2n} \ right) = \ frac a {2n \ left (\ frac a {2n} – \ frac {a ^ 3} {48n ^ 3} + \ mathcal O \ left (\ frac 1 {n ^ 5} \ right) \ right)} = \ frac a {2n \ cdot \ frac a {2n}} = \ frac aa = 1 [/ matemáticas].

Por lo tanto,

[matemáticas] \ displaystyle \ lim_ {n \ to \ infty} \ frac a {2n} \ csc \ left (\ frac a {2n} \ right) \ cos \ left (a + \ frac a {2n} \ right) = \ cos (a) [/ matemáticas]

Poniendolo todo junto,

[matemáticas] \ displaystyle \ int_0 ^ a \ sin (x) \ mathrm dx = \ lim_ {n \ to \ infty} \ sum_ {i = 0} ^ n \ frac an \ sin \ left (\ frac {ia} n \ right) = – \ cos (a) – (-1) [/ math]

Según el teorema fundamental del cálculo, considerando [math] \ cos (0) = 1 [/ math], tenemos [math] \ displaystyle \ int \ sin (x) \ mathrm dx = – \ cos (x) + C \ cuadrado negro [/ matemáticas]

Apuesto a que nadie leerá esto jajaja.

4 respuestas ya se colapsaron sin razón aparente …

La integral indefinida de [math] \ sin (x) [/ math] con respecto a x es [math] – \ cos (x) + C [/ math], donde [math] C [/ math] es la constante de integración.


Enumere las derivadas de [math] \ sin [/ math] si es útil.

[matemáticas] f (x) = \ sin (x) [/ matemáticas]

[matemáticas] f ‘(x) = \ cos (x) [/ matemáticas]

[matemáticas] f ” (x) = – \ sin (x) [/ matemáticas]

[matemáticas] f ” ‘(x) = – \ cos (x) [/ matemáticas]

[matemáticas] f ^ {(4)} (x) = \ sin (x) [/ matemáticas]

Como puede ver, los derivados del seno y el coseno son cíclicos. Eso también significa que los antiderivados del seno y el coseno son cíclicos.

Si bajar la lista es diferenciador, subir la lista es integrar.

Un método es abordarlo gráficamente. heres un enlace a lo que TI publicó, explicando la relación entre sinx y cosx gráficamente

https://www.google.com/url?sa=t&…

(solo la primera página del pdf sería relevante).

Además, puede utilizar el método de límite, que daría la respuesta algebraicamente.

La derivada del coseno de x es

[matemática] \ Grande D (\ cos x) = – \ sen x [/ matemática]

Entonces, por la definición del anti-derivado,

[matemáticas] \ Large \ displaystyle \ int \ sin x dx = – \ cos x + C [/ math]

Recuerde que la derivada de cos (x) es igual a -sin (x). Por esta misma lógica que la derivada de -cos (x) = sin (x). Por lo tanto, la integral de sin (x) es -cos (x).

−cos (x) + C

De nuevo, la derivada de cosx es -sinx

así que en caso de diferenciar -cos (x) + C será – (- sinx) + 0 = sinx, que es nuestro término dado.

Es posible que ya haya sabido que la integración es opuesta a la diferenciación y viceversa.

Recordar el conocimiento relacionado en diferenciación

que: [matemáticas] d / dx -cosx = sen x [/ matemáticas]

Y sabemos que la integral es el cálculo inverso de la diferenciación

Por lo tanto, el intergal de [math] sin x [/ math] es [math] -cos x + c [/ math]

donde c es una constante arbitraria en el dominio de R

Hmm, pregunta interesante! He reflexionado sobre muchos problemas de integración difíciles en mi día. Recomiendo buscar en Google la próxima vez, ya que podría ahorrarle tiempo (¡no lo tome como si tratara de decirle cómo vivir su vida; piense en ello como un consejo)! Sin embargo, la respuesta es [matemáticas] cos (x) [/ matemáticas].

Hola ,

Aquí hay un pequeño truco memo que podría ayudarte con él.

Ahora solo necesita pensar en el círculo trigonométrico, y nunca lo olvidará (:!

(Perdón por la figura en mal estado)

-cos (x)

Como [matemáticas] d (cosx) / dx = -sinx. [/matemáticas]

[matemáticas] Entonces, d (-cosx) / dx = – (cosx) ‘= – (- sinx) = sinx. [/ matemáticas]

Por lo tanto, como integral es “anti-diferencial”, integral de sinx = -cosx.

Piense en las derivadas para funciones trigonométricas e intente retroceder.
d / dx sinx = cosx
d / dx cosx = -sinx
Al principio no será obvio … ¡no olvides tu plus C!

Permítame responder a esta pregunta de manera ligeramente diferente: siguiendo los pasos de Isaac Barrow (1630–1677) (el maestro de Isaac Newton), Isaac Newton (1642–1726), Gottfried Leibniz (1646–1616), Bernhard Riemann ( 1826-1866) y, para no olvidar, Euclides, Arquímedes y numerosos individuos anónimos griegos de ideas afines del pasado.

La idea aquí es considerar solo una parte positiva de la gráfica de [math] \ sin (x) [/ math] en el intervalo [math] [0, x] [/ math] donde [math] 0 \ leqslant x \ leqslant \ pi [/ math].

Construir una suma correcta de Riemann:

  • divida el segmento de línea [matemática] [0, x] [/ matemática] en [matemática] n, n \ in \ mathbb {N} [/ matemática] segmentos de línea más pequeños de igual longitud [matemática] \ Delta x_n [/ matemática ] tal que:

[matemáticas] \ Delta x_ {n} = \ dfrac {x} {n} \ tag {1} [/ matemáticas]

  • elija un punto [matemáticas] x_i \ en [0, x] [/ matemáticas]
  • construya un eje perpendicular al eje [matemático] x [/ matemático] a través de [matemático] x_i [/ ​​matemático] hasta que intersecte la gráfica de [matemático] \ sin (x) [/ matemático] en [matemático] P_i [/ ​​matemático ]
  • construya un eje perpendicular al eje [matemático] y [/ matemático] a través de [matemático] P_i [/ ​​matemático] hasta que se cruce con el eje [matemático] y [/ matemático] en [matemático] \ sin (x_i) [/ matemático ]
  • construya un eje perpendicular al eje [matemático] x [/ matemático] a través de [matemático] x_ {i-1} [/ matemático]
  • y considere un área cuadrada [matemáticas] A_i (x) [/ matemáticas] del rectángulo primitivo [matemáticas] | x_i – x_ {i-1} | \ times | x_iP_i | = \ Delta x_n \ times | x_iP_i | [/ math]:

En nuestra notación:

[matemáticas] | x_iP_i | = f (x_i) = \ sin (x_i) \ tag {2} [/ math]

Por lo tanto:

[matemáticas] A_i (x) = \ Delta x_n \ cdot \ sin (x_i) = \ dfrac {x} {n} \ cdot \ sin (x_i) \ tag {3} [/ matemáticas]

Pero el punto [math] x_i [/ ​​math] es [math] i [/ math] segmentos de línea primitivos alejados del origen. Por lo tanto:

[matemáticas] x_i = \ Delta x_n \ veces i = \ dfrac {x} {n} \ cdot i \ tag {4} [/ matemáticas]

Entonces:

[matemáticas] A_i (x) = \ dfrac {x} {n} \ cdot \ sin \ Big (\ dfrac {x} {n} \ cdot i \ Big) \ tag {5} [/ matemática]

A continuación, argumentamos que, dado que la función [math] \ sin (x) [/ math] es continua, no negativa y toma valores finitos, el área cuadrada de la región plana limitada por la gráfica de [math] \ sin (x ) [/ math] en el intervalo dado es aproximadamente la suma de los rectángulos primitivos anteriores:

[matemáticas] \ displaystyle A (x) \ approx \ sum_ {i = 1} ^ n A_i (x) = \ sum_ {i = 1} ^ n \ dfrac {x} {n} \ cdot \ sin \ Big (\ dfrac {x} {n} \ cdot i \ Big) \ tag * {} [/ math]

[matemáticas] \ displaystyle A (x) \ approx \ dfrac {x} {n} \ sum_ {i = 1} ^ n \ sin \ Big (\ dfrac {x} {n} \ cdot i \ Big) \ tag { 6} [/ matemáticas]

ya que el factor delante de [math] \ sin () [/ math] no depende de la variable de suma [math] i [/ math].

Por lo tanto, parece que nuestra capacidad para resolver este tipo de problemas depende de nuestra capacidad para calcular las sumas no muy diferentes ( 6 ).

Sin embargo, esa suma debe parecer familiar y puede calcularse en forma cerrada utilizando el método de perturbación o reordenamiento.

Por ejemplo, el Sr. Amit ha mostrado la naturaleza telescópica oculta de esa suma en esta respuesta de Quora y puede encontrar las ideas similares implementadas en estas respuestas de Quora.

Para obtener la naturaleza telescópica de la suma, multiplique sus dos lados:

[matemáticas] \ displaystyle S_n = \ sum_ {i = 1} ^ n \ sin \ Big (\ dfrac {x} {n} \ cdot i \ Big) \ tag * {} [/ math]

por [math] \ sin \ dfrac {x} {2n} [/ math]:

[matemáticas] \ displaystyle S_n \ sin \ dfrac {x} {2n} = \ sum_ {i = 1} ^ n \ sin \ Big (\ dfrac {x} {n} \ cdot i \ Big) \ sin \ dfrac { x} {2n} \ tag * {} [/ math]

y use la identidad de producto a suma para desplegar cada término bajo el signo de suma en un par de términos . Por ejemplo, para [matemáticas] i = 1 [/ matemáticas]:

[matemáticas] 2 \ sin \ dfrac {x} {n} \ sin \ dfrac {x} {2n} = \ cos \ dfrac {x} {2n} – \ cos \ dfrac {3x} {2n} \ tag * { }[/matemáticas]

mientras que para [matemáticas] i = 2 [/ matemáticas] obtenemos:

[matemáticas] 2 \ sin \ dfrac {2x} {n} \ sin \ dfrac {x} {2n} = \ cos \ dfrac {3x} {2n} – \ cos \ dfrac {5x} {2n} \ tag * { }[/matemáticas]

Ahora observe el patrón telescópico:

el último coseno de un par anterior se cancela con el primer coseno del siguiente par

En el ejemplo anterior, los cosenos con el argumento [math] 3x [/ math] se cancelan.

Entonces se deduce que los únicos cosenos que sobrevivirán al tango telescópico son los primeros y los últimos:

[matemáticas] \ displaystyle 2 \ cdot S_n \ sin \ dfrac {x} {2n} = \ cos \ dfrac {x} {2n} – \ cos (2n + 1) \ dfrac {x} {2n} \ tag * { }[/matemáticas]

[matemáticas] \ displaystyle S_n = \ dfrac {\ cos \ dfrac {x} {2n} – \ cos (2n + 1) \ dfrac {x} {2n}} {2 \ sin \ dfrac {x} {2n}} \ tag * {} [/ math]

Normalmente, comprimiríamos lo anterior aún más (en una forma cerrada ) a través de la identidad de suma a producto:

[matemáticas] \ displaystyle S_n = \ dfrac {\ sin (n + 1) \ dfrac {x} {2n} \ sin \ dfrac {x} {2}} {\ sin \ dfrac {x} {2n}} \ tag *{}[/matemáticas]

Pero para este problema en particular no tenemos que hacerlo porque estaremos haciendo el trabajo de Sisyphean, mantener la suma como está, en términos de cosenos:

[matemáticas] \ displaystyle A (x) \ approx \ dfrac {x} {2n} \ dfrac {\ cos \ dfrac {x} {2n} – \ cos (2n + 1) \ dfrac {x} {2n}} { \ sin \ dfrac {x} {2n}} \ tag {7} [/ math]

(barra lateral: observe cómo piezas aparentemente dispares de viejos conocimientos matemáticos encajan perfectamente en una nueva disciplina)

Tomar el límite de ( 7 ) como [matemática] n [/ matemática] tiende al infinito positivo debe resolver la pregunta *:

[matemáticas] \ displaystyle A (x) = \ lim_ {n \ to + \ infty} \ dfrac {x} {2n} \ dfrac {\ cos \ dfrac {x} {2n} – \ cos (2n + 1) \ dfrac {x} {2n}} {\ sin \ dfrac {x} {2n}} \ tag {8} [/ math]

En el límite anterior, divida el numerador y el denominador por:

[matemáticas] \ dfrac {x} {2n} \ etiqueta * {} [/ matemáticas]

para obtener:

[matemáticas] \ displaystyle A (x) = \ lim_ {n \ to + \ infty} \ dfrac {\ cos \ dfrac {x} {2n} – \ cos (2n + 1) \ dfrac {x} {2n}} {\ dfrac {\ sin \ dfrac {x} {2n}} {\ dfrac {x} {2n}}} \ tag * {} [/ math]

Use el teorema que establece que el límite de una razón es la razón de los límites siempre que existan los límites :

[matemáticas] A (x) = \ dfrac {\ displaystyle \ lim_ {n \ to + \ infty} \ Big (\ cos \ dfrac {x} {2n} – \ cos (2n + 1) \ dfrac {x} { 2n} \ Big)} {\ displaystyle \ lim_ {n \ to + \ infty} \ dfrac {\ sin \ dfrac {x} {2n}} {\ dfrac {x} {2n}}} \ tag {9} [ /matemáticas]

El límite en el denominador de ( 9 ) debe parecer familiar ya que tiene la siguiente forma:

[matemáticas] \ displaystyle \ lim_ {v \ a 0} \ dfrac {\ sin (v)} {v} = 1 \ tag * {} [/ matemáticas]

donde ponemos:

[matemáticas] \ dfrac {x} {2n} = v \ etiqueta * {} [/ matemáticas]

con una consecuencia fácil de probar que:

[matemáticas] \ displaystyle \ lim_ {n \ to + \ infty} v = 0 \ etiqueta * {} [/ matemáticas]

(barra lateral: el límite anterior se calcula correctamente, sin el razonamiento circular de derivados y series de Taylor, en esta respuesta de Quora (por ejemplo))

Por lo tanto, para [matemáticas] A (x) [/ matemáticas] tenemos:

[matemáticas] \ displaystyle A (x) = \ lim_ {n \ to + \ infty} \ Big (\ cos \ dfrac {x} {2n} – \ cos (2n + 1) \ dfrac {x} {2n} \ Big) \ tag * {} [/ math]

Aquí asumimos que la continuidad del coseno ha sido probada previamente e invocamos el otro teorema sobre la aritmética de los límites: el límite de una suma / diferencia es la suma / diferencia de los límites siempre que los límites existan :

[matemáticas] \ displaystyle A (x) = \ lim_ {n \ to + \ infty} \ cos \ dfrac {x} {2n} – \ lim_ {n \ to + \ infty} \ cos \ Big (x + \ dfrac { x} {2n} \ Big) = \ tag * {} [/ math]

[matemáticas] \ cos (0) – \ cos (x) = – \ cos (x) + 1 = – \ cos (x) + \ text {const} \ tag * {} [/ matemáticas]

Es decir que:

[matemáticas] \ displaystyle \ int \ sin (x) dx = – \ cos (x) + \ text {const} \ tag * {} [/ matemáticas]

(en la época de Barrow, según los estándares modernos, podríamos decir que la derivada del área cuadrada variable [matemática] A_x ‘(x) [/ matemática] es igual a [matemática] f (x) [/ matemática] y que la la integral de [matemáticas] f (x) [/ matemáticas] es el área cuadrada debajo del gráfico …)


* Para un tratamiento minucioso, debemos dejar constancia de que la integral en cuestión existe si alguna suma de Riemann produce el mismo resultado.

-cos (x)

Como la derivada de cos (x) es -sin (x), la integral de sinx es su antiderivada, es decir, cos-x (x)