¿Cuál es la lógica detrás del método de variación de parámetros?

Hola Constantin Lucian.
Según su pregunta, parece que sabe que si [matemática] c_1y_1 (x) + c_2y_2 (x) [/ matemática] es una solución para la ecuación diferencial [matemática] y ” + p (x) y ‘+ q ( x) y = 0 [/ matemática] luego con [matemática] c_1 (x), c_2 (x) [/ matemática], [matemática] c_1 (x) y_1 (x) + c_2 (x) [x) [ / math] será una solución para [math] y ” + p (x) y ‘+ q (x) y = g (x) [/ math].

Ahora la pregunta es ¿por qué sucede esto? ¿Es solo un método de prueba y error que alguien encontró por suerte o hay alguna explicación detrás de esto?

Las respuestas a continuación son excelentes. Sin embargo, creo que hay más y podemos investigar un poco más para encontrar la respuesta.

Comencemos con la ecuación simple [matemáticas] y’-a (x) y = 0 [/ matemáticas]. La solución a esta ecuación es muy simple y se puede escribir como [math] y (x) = ce ^ {\ int a (x) dx} [/ math].
Ahora, si cambiamos un problema levemente y consideramos el problema [matemática] y’-a (x) y = b (x) [/ matemática]. La solución a este problema es fácil y se realiza a continuación.

[matemáticas] e ^ {- \ int a (x) dx} y ‘-a (x) e ^ {- \ int a (x) dx} y = e ^ {- \ int a (x) dx} b ( x) [/ matemáticas]
[matemáticas] \ frac {d (e ^ {- \ int a (x) dx} y)} {dx} = e ^ {- \ int a (x) dx} b (x) [/ matemáticas]
[matemáticas] e ^ {- \ int a (x) dx} y = \ int e ^ {- \ int a (x)} b (x) + c [/ matemáticas]
[matemáticas] y = ce ^ {\ int a (x) dx} + e ^ {\ int a (x) dx} \ int e ^ {- \ int a (x)} b (x) [/ matemáticas]

La solución para este problema es de la forma [matemática] y (x) = c (x) e ^ {\ int a (x) dx} [/ matemática].

La idea principal radica en el hecho de que el sistema es lineal en y. Un sistema escalar lineal general de primer orden se puede escribir como [matemática] y ‘= a (x) y + b (x) [/ matemática]. El término [matemáticas] b (x) [/ matemáticas] es la entrada o perturbación del sistema. El sistema con [matemática] b (x) = 0 [/ matemática] se conoce como sistema impulsado por la deriva. La deriva es el término [matemática] a (x) [/ matemática]. Hay muchos sistemas, como la descarga de un condensador, la vibración de un resorte, el barco que flota en una corriente donde la dinámica del sistema cambia de acuerdo con la deriva. El comportamiento cambiará si comenzamos a aplicar información adicional al sistema; por ejemplo, agregar una fuente de voltaje a un condensador de descarga puede hacer que el condensador deje de descargarse y comience a cargar, etc. Sin embargo, el comportamiento del sistema lineal bajo la aplicación de entrada puede determinarse de manera única si el comportamiento es conocido para el sistema sin entrada. Lo hemos visto para el caso [math] y’-a (x) y = b (x) [/ math] donde el procedimiento matemático exacto asegura que [math] y = c (x) y_1 [/ math] es una solución para [matemática] y’-a (x) y = b (x) [/ matemática] si [matemática] y = cy_1 [/ matemática] es la solución para [matemática] y’-a (x) y = 0 [ /matemáticas].

Ahora la pregunta es para el sistema [matemáticas] y ” + p (x) y ‘+ q (x) y = g (x) [/ matemáticas]. Y de hecho, ¿qué podemos decir sobre el sistema [matemática] y ^ n + a_n (x) y ^ {n-1} +… a_1 (x) y = a_0 (x) [/ matemática] donde [matemática] y ^ i = \ frac {d ^ iy} {dx ^ i} [/ math].

La respuesta es Linear Systems !!
Lo haré para el problema [matemática] y ” + p (x) y ‘+ q (x) y = g (x) [/ matemática] pero se puede generalizar para cualquier n.

Deje [math] y_1 = y [/ math] y [math] y_2 = y_1 ^ ‘= y’ [/ math]. Por lo tanto, [matemáticas] y_2 ^ ‘= y’ ‘= – p (x) y_2-q (x) y_1 + g (x) [/ matemáticas] e Y es el vector [matemáticas] Y = [y_1, y_2] ^ T [/ matemáticas].

Podemos escribir el mismo problema [matemáticas] y ” + p (x) y ‘+ q (x) y = g (x) [/ matemáticas] como

[matemáticas] Y ‘= A (x) Y + B (x) [/ matemáticas]
donde A (x) es la matriz [matemáticas] A_ {11} = 0, A_ {12} = 1, A_ {21} = – q (x), A_ {22} = – p (x) [/ matemáticas] y B (x) es el vector [matemáticas] B (x) = [0, g (x)] ^ T [/ matemáticas].
Ahora volvemos al problema [matemática] y ‘= a (x) y + b (x) [/ matemática] excepto el hecho de que ahora tenemos que resolver una ecuación diferencial de vector (matriz).

La solución de la ecuación diferencial de matriz es la misma que para el caso escalar.
La solución de la ecuación [matemáticas] Y ‘= A (x) Y [/ matemáticas] viene dada por

[matemática] Y = e ^ {\ int A (x) dx} C [/ matemática] donde en este caso C es un vector constante de longitud dos y [matemática] e ^ {\ int A (x) dx} [/ math] es una matriz 2X2. La derivación de esta solución es fácil pero requiere varios pasos y, por lo tanto, no estoy escribiendo eso aquí.

Si denotamos [matemática] e ^ {\ int A (x) dx} = G [/ matemática] y [matemática] C = [c_1, c_2] ^ T [/ matemática] entonces [matemática] y = y_1 = c_1G_ { 11} (x) + c_2G_ {12} (x) [/ math].
Ahora la solución al sistema [matemática] Y ‘= A (x) Y + B (x) [/ matemática] es
[matemáticas] Y = e ^ {\ int A (x) dx} C + e ^ {\ int A (x) dx} \ int e ^ {- \ int A (x)} B (x) [/ matemáticas]
[matemáticas] y = e ^ {\ int A (x) dx} C (x) [/ matemáticas] donde [matemáticas] C (x) = C + \ int e ^ {- \ int A (x)} B (x )[/matemáticas]. Por lo tanto, [matemáticas] C (x) = [c_1 (x), c_2 (x)] [/ matemáticas] y [matemáticas] y = y1 = c_1 (x) G_ {11} (x) + c_2 (x) G_ {12} (x) [/ matemáticas].

Esto explica si [math] G_ {11} (x) [/ math] y [math] G_ {12} (x) [/ math] son ​​la solución para [math] y ” + p (x) y ‘+ q (x) y = 0 [/ matemática], la solución de [matemática] y ” + p (x) y ‘+ q (x) y = g (x) [/ matemática] es [matemática] c_1 (x ) G_ {11} (x) + c_2 (x) G_ {12} (x) [/ math].

La idea principal es para el sistema lineal, se puede separar la deriva y la parte de entrada. Y este principio de separación, de hecho, ayuda a encontrar la solución bajo cualquier entrada. Si observa la solución que hice para el sistema [matemática] y’-a (x) y = b (x) [/ matemática], habrá notado que multipliqué [matemática] e ^ {- \ int a (x ) dx} [/ math] con la ecuación. Esto se hizo solo para suprimir la deriva del sistema y descubrir qué entrada le hace al sistema. La deriva proporciona las funciones básicas para la solución y la entrada determina los coeficientes (como función de x).

Observaciones:
1) si [math] y_1, y_2,… .y_n [/ math] son ​​las soluciones de [math] y ^ n + a_n (x) y ^ {n-1} +… a_1 (x) y = 0 [/ math] , [matemáticas] c_1 (x) y_1 + c_2 (x) y_2 +… c_n (x) y_n [/ matemáticas] es la solución para [matemáticas] y ^ n + a_n (x) y ^ {n-1} +… a_1 (x) y = a_0 (x) [/ matemáticas].

2) Todo el análisis anterior es válido ya que el sistema era lineal. En general, todo falla si consideramos [matemáticas] y ” + p (x, y) y ‘+ q (x, y) = g (x) [/ matemáticas] donde p (.) Es una función de y y q ( x, y) no es q (x) y.

3) para un sistema de segundo orden con coeficientes constantes, [matemática] y ” + py ‘+ qy = 0 [/ matemática], las soluciones dependen de las raíces de la ecuación [matemática] r ^ 2 + pr + q = 0 [/ matemáticas]. Intente escribir el sistema en forma [math] Y = AY [/ math] y encuentre los valores Eigen y Eigen de la matriz A. Intente también encontrar [math] G = e ^ {\ int A dx} [/ math ] matriz y averiguar qué [matemáticas] G_ {11}, G_ {12} [/ matemáticas] son.

4) en general, la solución de [math] c_1 (x) [/ math] y [math] c_2 (x) [/ math] se obtiene formando algo de Wronskian. El Wronskian también está relacionado con la matriz G. Intenta resolverlo.

Gracias por el A2A.

Creo que la respuesta de Bryan Bischof es excelente, pero pensé que tal vez debería explicar un poco más de la filosofía general de encontrar soluciones a ecuaciones diferenciales parciales. Esto podría ayudar a comprender cómo las personas inventan estas cosas.

El problema con este campo es que, si tuviera que tomar una ecuación diferencial parcial “aleatoria”, seguramente no sería solucionable en forma cerrada. Por lo tanto, nunca hay una solución única para todos. Su mejor opción es probar diferentes trucos y esperar que uno de ellos funcione. Esta técnica no es diferente.

Digamos que se nos da la ecuación [matemáticas] y ” + 2y ‘+ y = e ^ {- x} [/ matemáticas] (usemos algo simple para fines de demostración). No está claro de inmediato cómo proceder, por lo que intentamos obtener algo de tracción tratando de resolver un problema similar, pero más simple: [matemática] y ” + 2y ‘+ y = 0 [/ matemática].

Puede verificar que esta ecuación tenga soluciones [matemáticas] e ^ {- x} [/ matemáticas] y [matemáticas] xe ^ {- x} [/ matemáticas], por lo que la solución general es de la forma [matemáticas] c_1 e ^ {-x} + c_2 xe ^ {- x} [/ math].

Esto es bueno, pero no está claro cómo nos ayuda. La salida es imaginar ese factor de [matemáticas] x [/ matemáticas] a la derecha como una especie de factor de corrección. Es decir, uno espera que la solución a la ecuación no homogénea sea más o menos la solución a la ecuación homogénea; al menos, uno espera que este sea el caso si está buscando cerca de un punto dado.

Volvamos a la solución que encontramos antes: [matemáticas] c_1 e ^ {- x} + c_2 xe ^ {- x} [/ matemáticas]. ¿Cómo podemos hacerlo un poco más complicado para que, tal vez, resuelva nuestra nueva ecuación? Bueno, podemos intentar y hacer que los coeficientes varíen de un punto a otro, es decir, intente [matemáticas] c_1 (x) e ^ {- x} + c_2 (x) xe ^ {- x} [/ matemáticas]. Conectamos esto a nuestra ecuación y (después de alguna reducción) obtenemos una condición:

[matemáticas] \ left (2c_2 ‘(x) + c_1’ ‘(x) + xc_2’ ‘(x) \ right) e ^ {- x} = e ^ {- x} [/ math]

Ahora esta es una ecuación que podemos resolver. Podemos obtener una solución general aplicando la regla de Cramer, pero por el momento contentemos con encontrar una solución (esto ya será mejor que lo que teníamos antes). En primer lugar, tenemos:

[matemáticas] 2c_2 ‘(x) + c_1’ ‘(x) + x c_2’ ‘(x) = 1 [/ matemáticas]

Supongamos que [math] c_2 (x) = c_2 [/ math] —ie es solo una constante. Entonces esta condición se simplificó aún más a solo [matemáticas] c_1 ” (x) = 1 [/ matemáticas]. Bueno, está bastante claro que esto se resuelve con [matemáticas] c_1 (x) = c_1 + \ frac {1} {2} x ^ 2 [/ matemáticas].

Es decir, hemos encontrado una solución: [matemáticas] \ frac {1} {2} x ^ 2 e ^ {- x} + c_1 e ^ {- x} + c_2 xe ^ {- x} [/ matemáticas]. Mirando esto un poco, queda claro que de hecho hemos encontrado la solución general . ¡No está mal para un poco de conjeturas!

No incluyo el método general de variación de parámetros, ya que es una generalización relativamente sencilla de lo que he descrito anteriormente, y en cualquier caso puede encontrar los detalles en cualquier libro sobre el tema, o incluso en Wikipedia. Lo que me parece muy extraño de este método es la generalidad en la que funciona. Nuestra suposición inicial era que podíamos tratar la parte no homogénea de nuestra ecuación como un factor de corrección, lo que debería sugerir que este factor debería ser “pequeño”. Sin embargo, ¡encontramos que el método funciona independientemente de los detalles de este factor! Eso, para mí, es muy extraño, y me temo que no conozco una explicación intuitiva de por qué esto funciona (las ecuaciones diferenciales no son exactamente mi campo). Quizás otros puedan llenar estos vacíos.

Muy muy simple.

Digamos que tiene un tazón con un fondo totalmente redondo lleno de agua que desea colocar en una mesa irregular.

Primero intentas dejar el tazón, pero puedes decir que el agua se acabará. Esta es una solución insuficiente.

Luego intenta colocar el tazón en otra parte de la mesa, se agota menos agua, pero aún queda algo. A medida que mueve la parte inferior del recipiente alrededor de la superficie de la mesa, está variando dos parámetros (la mesa es un plano cartesiano).

Encontrar el lugar agradable en la mesa varía los parámetros hasta que minimice las funciones de inclinación en todos los lados del tazón.