Cómo resolver la ecuación diferencial [matemáticas] y ” + y = \ cos ^ 2 x [/ matemáticas]

Otras respuestas han dado soluciones informativas a la ecuación diferencial en (la) pregunta.

Proporcionaré algunas formas útiles adicionales para resolverlo.

Se puede obtener una solución con Mathematica escribiendo:

DSolve [y ” [x] + y [x] == (Cos [x]) ^ 2, y [x], x]

El resultado o resultado es el siguiente:

[matemáticas] \ displaystyle y (x) = c_ 2 \ sin (x) + c_ 1 \ cos (x) + \ frac {1} {12} \ left (9 \ sin ^ 2 (x) + \ sin (x ) \ sin (3 x) + 4 \ cos ^ 4 (x) \ right) [/ math]

El resultado se puede simplificar usando el símbolo incorporado de Mahtematica FullSinplify []:

DSolve [y ” [x] + y [x] == (Cos [x]) ^ 2, y [x], x] // FullSimplify

Y la salida es:

[matemáticas] \ large \ color {rojo} {y (x) = c_ 1 \ cos (x) + c_ 2 \ sin (x) – \ frac {1} {6} \ cos (2 x) + \ frac { 1} {2}} [/ matemáticas]

cual es la solución requerida para la ecuación diferencial.

También se puede encontrar una solución con Maple escribiendo:

oda: = diff (y (x), x, x) + y (x) = cos (x) ^ 2

y luego escribiendo:

dsolve (oda)

La respuesta y la solución requeridas son:

y (x) = sin (x) * _ C2 + cos (x) * _ C1 + 1 / 2- (1/6) * cos (2 * x)

que también se puede simplificar y expresar como:

y (x) = cos (x) * _ C1 + sin (x) * _ C2- (1/3) * cos (x) ^ 2 + 2/3

La ecuación diferencial dada generalmente se puede resolver usando el método de coeficientes indeterminados, o mediante la variación de parámetros, o usando la transformada de Laplace.

A continuación se muestra la solución detallada a la ecuación diferencial por el método de coeficientes indeterminados, proporcionada con la ayuda de Wolfram Alpha:

Y aquí está la solución detallada mediante el uso de la transformación de Laplace (de Wolfram Alpha):

Finalmente, a continuación se muestra una representación gráfica de una familia de soluciones de muestra (de Wolfram Alpha):

Espero que esta respuesta haya sido útil .

Esta es claramente una ecuación diferencial no homogénea de segundo orden.

[matemáticas] y ” + P (x) y ‘+ Q (x) y = R (x) \ implica Q (x) = 1, R (x) = \ cos ^ 2x [/ matemáticas]

Usaré el método de variación de parámetros aquí para resolver esta pregunta

Por lo que sabemos, la solución a una ecuación no homogénea es de la forma [math] y = y_c + y_p [/ math]

Aquí [math] y_c [/ math] es la solución complementaria a la ecuación y [math] y_p [/ math] es la integral particular. [math] y_c [/ math] se encuentra resolviendo la parte homogénea de la ecuación, y en este caso, se encuentra resolviendo [math] y ” + y = 0 [/ math]

[matemática] y ” + y = 0 \ implica (D ^ 2 + 1) y = 0 \ implica m ^ 2 + 1 = 0 \ a [/ matemática] la ecuación característica.

Las raíces de la ecuación característica son [matemáticas] 0 \ pm i [/ matemáticas], por lo tanto, la solución es [matemáticas] y_c = e ^ {0x} (c_1 \ cos (x) + c_2 \ sin (x)) = c_1 \ cos (x) + c_2 \ sin (x) [/ math] donde [math] c_1 [/ math] y [math] c_2 [/ math] son ​​constantes arbitrarias. Considere [math] y_1 = \ cos (x) [/ math] y [math] y_2 = \ sin (x) [/ math]

Ahora que hemos encontrado la solución complementaria, encontremos la integral particular.

Según el método de variación de parámetros , la integral particular es [matemática] y_p = u_1y_1 + u_2y_2 [/ matemática] donde [matemática] u_1 = \ displaystyle \ int \ frac {-y_2 R (x) dx} {W (y_1, y_2)} [/ matemática] y [matemática] u_2 = \ displaystyle \ int \ frac {y_1 R (x) dx} {W (y_1, y_2)} [/ matemática] donde [matemática] W (y_1, y_2) [ / math] es el wronskiano de [math] y_1 [/ math] y [math] y_2 [/ math].

Entonces, [matemáticas] u_1 = \ displaystyle \ int \ frac {-y_2 R (x) dx} {W (y_1, y_2)} = \ int \ frac {- \ sin (x) \ cos ^ 2 (x) dx } {1} = \ frac {1} {3} \ cos ^ 3 (x) [/ math]

[matemáticas] u_2 = \ displaystyle \ int \ frac {y_1 R (x) dx} {W (y_1, y_2)} = \ int \ frac {\ cos (x) \ cos ^ 2 (x) dx} {1} = \ frac {9 \ sin (x) + \ sin (3x)} {12} [/ math]

[matemáticas] \ implica y_p = u_1y_1 + u_2y_2 = \ dfrac {\ cos ^ 4 (x)} {3} + \ dfrac {9 \ sin ^ 2 (x) + \ sin (x) \ sin (3x)} { 12} [/ matemáticas]

Después de encontrar la integral particular, la solución final de la ecuación será [matemática] y = y_c + y_p [/ matemática]

Entonces nuestra solución final es:

[matemáticas] \ large y = \ boxed {c_1 \ cos (x) + c_2 \ sin (x) + \ dfrac {\ cos ^ 4 (x)} {3} + \ dfrac {9 \ sin ^ 2 (x) + \ sin (x) \ sin (3x)} {12}} [/ matemáticas]

Una ligera simplificación usando las fórmulas: [matemática] \ sin (3x) = 3 \ sen x – 4 \ sin ^ 3x [/ matemática], [matemática] sin ^ 2x + \ cos ^ 2x = 1 [/ matemática], [ matemáticas] \ sin ^ 2x = \ dfrac {1 – \ cos2x} {2} [/ matemáticas], nos daría la respuesta final como:

[matemáticas] \ large y = \ color {green} {\ boxed {c_1 \ cos (x) + c_2 \ sin (x) + \ dfrac {- \ cos (2x)} {6} + \ dfrac {1} { 2}}} [/ matemáticas]

Mi método favorito para resolver ODE lineal es el método de Integrar factores.

Para utilizar este enfoque, debe reducir el problema de segundo orden a un sistema de ODE de primer orden.

[matemáticas] \ begin {cases} \ dot {y} = w \\ \ dot {w} = \ cos ^ 2 (t) -y \ end {cases} [/ math]

Esto puede reescribirse como una ecuación matricial

[matemáticas] \ frac {d} {dt} \ begin {pmatrix} y \\ w \ end {pmatrix} = \ begin {pmatrix} 0 & 1 \\ -1 & 0 \ end {pmatrix} \ begin {pmatrix} y \\ w \ end {pmatrix} + \ begin {pmatrix} 0 \\ \ cos ^ 2t \ end {pmatrix} [/ math]

La idea detrás del método de integración de factores es el uso de una generalización de la función exponencial llamada matriz exponencial. Como se desprende de su nombre, aunque funciona en matrices en lugar de escalares. Deja que A sea una matriz

[matemáticas] \ frac {d} {dt} \ mathrm {e} ^ {A t} = A \ mathrm {e} ^ {At} [/ math]

[matemáticas] (\ mathrm {e} ^ {At}) ^ {- 1} = \ mathrm {e} ^ {- A t} [/ math]

[matemáticas] \ matemáticas {e} ^ {A 0} = I [/ matemáticas]

donde yo es la matriz de identidad. También tenemos que la matriz A y su viaje exponencial

[matemáticas] A e ^ {A t} = e ^ {A t} A [/ matemáticas]

Sin embargo, si A y B son dos matrices

[matemáticas] \ mathrm {e} ^ {At} \ mathrm {e} ^ {Bt} = \ mathrm {e} ^ {(A + B) t} [/ math]

si y solo si A y B conmutan. Así que debes tener un poco de cuidado al trabajar con ellos. Se define en general por la serie Taylor

[math] \ mathrm {e} ^ {At} = \ sum_ {j = 0} ^ \ infty A ^ j \ frac {t ^ j} {j!} [/ math]

Calcular la exponencial de la matriz es más simple para las matrices diagnosticables.

[matemáticas] A = X \ begin {pmatrix} \ lambda_1 & & & \\ & \ lambda_2 & & \\ & & \ ddots & \\ &&& \ lambda_n \ end {pmatrix} X ^ {- 1} [/ math]

Entonces la matriz exponencial de A viene dada por

[math] \ mathrm {e} ^ {At} = X \ begin {pmatrix} e ^ {\ lambda_1t} & & & \\ & e ^ {\ lambda_2t} & & \\ & & \ ddots & \\ &&& e ^ { \ lambda_nt} \ end {pmatrix} X ^ {- 1} [/ math]

Así que ahora dejemos que A sea la matriz definida en nuestro sistema de EDO.

[math] \ mathrm {e} ^ {At} = \ begin {pmatrix} \ cos t & \ sin t \\ – \ sin t & \ cos t \ end {pmatrix} [/ math]

Esto puede mostrarse calculando la descomposición del valor propio de esta matriz y luego aplicando la identidad de Euler. Bien para derivar el método, reescribimos nuestro sistema un poco más en general

[math] \ dot {\ mathbf {u}} = A \ mathbf {u} + \ mathbf F [/ math]

Multiplicaremos por el factor integrador [matemáticas] e ^ {- A t} [\ matemáticas] e integraremos de 1 a [matemáticas] T [\ matemáticas]

[matemáticas] \ int_0 ^ T \ frac {d} {dt} (e ^ {- A t} \ mathbf {u}) dt = e ^ {- AT} \ mathbf {u} (T) – e ^ {0 } \ mathbf {u} (0) [/ math]

También tenga en cuenta que usando la regla del producto tenemos

[matemáticas] \ int_0 ^ T \ frac {d} {dt} (e ^ {- A t} \ mathbf {u}) dt = \ int_0 ^ T e ^ {- A t} (\ dot {\ mathbf {u }} -A \ mathbf {u}) dt = \ int_0 ^ T e ^ {- A t} \ mathbf {F} (t) dt [/ math]

Combinando estas dos identidades y multiplicando ambos lados por el inverso del factor integrante llegamos a la identidad

[matemáticas] \ mathbf {u} (T) = \ mathrm {e} ^ {AT} \ mathbf {u} (0) + \ int_0 ^ T \ mathrm {e} ^ {A (Tt)} F (t) dt [/ math]

Esta fórmula ahora es explícita y funciona para montones y montones de F. También muestra claramente cómo integrar diferentes condiciones iniciales en el problema. Bien, ahora calculemos cuáles son nuestras soluciones

[matemáticas] \ int_0 ^ T \ begin {pmatrix} \ cos (Tt) & \ sin (Tt) \\ – \ sin (Tt) & \ cos (Tt) \ end {pmatrix} \ begin {pmatrix} 0 \\ \ cos ^ 2 t \ end {pmatrix} dt = \ begin {pmatrix} \ frac {2} {3} (2+ \ cos T) \ sin ^ 2 \ frac {T} {2} \\ \ frac {1 } {3} (\ sin T + \ sin 2 T) \ end {pmatrix} [/ math]

El cálculo real de esta integral será un poco detallado, pero se puede mostrar utilizando la integración por partes en cada componente y luego aplicando algunas identidades trigonométricas (utilicé Mathica para integrarme).

La primera entrada de este resultado es exactamente la función [matemática] y [\ matemática] que estamos buscando. La segunda entrada corresponde a su derivada.

escribir D para [matemáticas] \ frac {d} {dx} [/ matemáticas]

[matemáticas] (D ^ 2 + 1) y = cos ^ 2 x [/ matemáticas]

CF

La ecuación auxiliar es [matemática] m ^ 2 + 1 = 0 [/ matemática]

Entonces [matemáticas] y_c = C_1 \ cos x + C_2 \ sin x [/ matemáticas]

Pi

[matemáticas] y_p = \ frac {1} {D ^ 2 + 1} \ cos ^ 2 x [/ matemáticas]

[matemáticas] = \ frac {1} {D ^ 2 + 1} \ frac {1+ \ cos 2 x} {2} [/ matemáticas]

[matemáticas] = \ frac {1} {2} [\ frac {1} {0 + 1} 1+ \ frac {1} {(- 2) ^ 2 + 1} \ cos2 x] [/ matemáticas]

[matemáticas] = \ frac {1} {2} [1- \ frac {\ cos2 x} {3}] [/ matemáticas]

[matemáticas] y = y_c + y_p [/ matemáticas]

[matemáticas] \ en caja {y = C_1 \ cos x + C_2 \ sen x + \ frac {1} {2} \ left [1- \ frac {\ cos2 x} {3} \ right]} [/ math]

Solo para el registro, intenté resolver esto usando el módulo sympy para el lenguaje Python:

>>> de Sympy Import *
>>> var (‘x’)
X
>>> f = Función (‘f’)
>>> Eq (Derivada (f (x), x, x) + f (x), cos (x) ** 2)
f (x) + Derivada (f (x), x, x) == cos (x) ** 2
>>> dsolve (_, f (x))
f (x) == C1 * sin (x) + C2 * cos (x) – sin (x) ** 4/3 + sin (x) ** 2 + cos (x) ** 4/3

¡Me di cuenta de que algo había salido mal cuando intenté verificar la solución!

Creo que lo que realmente quieres es cómo obtener la solución en detalle. Por lo tanto, es posible que no piense que sería interesante saber lo que dice Wolfram-Alpha. Excepto que identifica esto como una ” ecuación diferencial ordinaria lineal de segundo orden “. Puede consultar las notas de su clase o el libro de texto para obtener consejos sobre ellos.

Editado: Mi agradecimiento a Apoorv Saxena por señalar mi error en la entrada Wolfram-Alpha.

[matemáticas] y ” + y = \ cos ^ 2 x [/ matemáticas]

[matemáticas] \ displaystyle \ Rightarrow y ” + y = \ frac {1} {2} \ left (1+ \ cos 2x \ right) [/ math]

La ecuación auxiliar viene dada por

[matemáticas] r ^ 2 + 1 = 0 [/ matemáticas]

[matemáticas] r = \ pm i [/ matemáticas]

entonces [matemáticas] y_c = c_1e ^ {ix} + c_2e ^ {- ix} [/ matemáticas]

[math] \ Rightarrow y_c = c_1 (\ cos x + i sen x) + c_2 (\ cos x- i \ sin x) [/ math]

[math] \ Rightarrow y_c = (c_1 + c_2) \ cos x + (c_1-c_2) \ sin x [/ math]

Deje [math] y_p = A \ cos 2x + B \ sin 2x + C [/ math]

[matemática] y’_p = -2A \ sin 2x + 2B \ cos 2x [/ matemática]

[matemáticas] y ” _ p = -4A \ cos 2x – 4B \ sen 2x [/ matemáticas]

[matemáticas] \ displaystyle y ” _ p + y = \ frac {1} {2} \ cos 2x + \ frac {1} {2} [/ matemáticas]

[matemáticas] \ displaystyle \ Rightarrow -4A \ cos 2x – 4B \ sen 2x + A \ cos 2x + B \ sin 2x + C = \ frac {1} {2} \ cos 2x + \ frac {1} {2} [/matemáticas]

Comparando coeficientes, tenemos …

[matemática] \ displaystyle -3A = \ frac {1} {2} [/ matemática] y [matemática] \ displaystyle C = \ frac {1} {2} [/ matemática]

[matemáticas] \ displaystyle \ Rightarrow A = – \ frac {1} {6} [/ math] y [math] \ displaystyle C = \ frac {1} {2} [/ math]

Por lo tanto, [math] \ displaystyle y_p = – \ frac {1} {6} \ cos 2x + \ frac {1} {2} [/ math]

La solución general viene dada por

[matemáticas] y = y_c + y_p [/ matemáticas]

[matemáticas] \ displaystyle \ Rightarrow y = (c_1 + c_2) \ cos x + (c_1-c_2) \ sin x- \ frac {1} {6} \ cos 2x + \ frac {1} {2} [/ math]

[matemáticas] \ displaystyle \ Rightarrow y = c_3 \ cos x + c_4 \ sin x- \ frac {1} {6} \ cos 2x + \ frac {1} {2} [/ matemáticas]

La solución homogénea es

[matemáticas] \ hspace {4ex} y_h = c_1 \ cos (x) + c_2 \ sin (x). [/ matemáticas]

[math] \ mbox {Since} \, \, \ cos ^ 2 (x) = \ frac12 + \ frac12 \ cos (2x), [/ math] una solución particular tiene la forma [math] y_p = \ frac12 + y_2 [ / math] con [math] y_2 = \ mbox {Re} (z), [/ math] donde z es la solución para

[matemáticas] \ hspace {10ex} z ” + z = \ frac12e ^ {2ix}. [/matemáticas]

Sustituya [math] z = Ce ^ {2ix} [/ math] y simplifique para obtener

[matemáticas] \ hspace {7ex} ((2i) ^ 2 + 1) C = \ frac12 [/ matemáticas]

[matemáticas] \ mbox {so} \ hspace {10ex} C = \ dfrac {1/2} {- 3} = – \ dfrac16 [/ math]

[matemáticas] \ mbox {y} \ hspace {7ex} y_p = \ dfrac12- \ dfrac16 \ cos (2x). [/matemáticas]