Creo que el punto de la pregunta no es “derivar” el método, sino demostrar que realmente encuentra raíces. Por lo general, está bien decir que si un cálculo da una raíz aproximadamente, entonces iterar ese cálculo “debería” acercarnos, pero “debería” no es satisfactorio para una prueba.
Comenzamos expresando [math] f [/ math] en su serie taylor sobre una estimación [math] x_n [/ math] de una raíz [math] x_r [/ math], truncando en el tercer término. Tenga en cuenta que esto supone que nuestra estimación inicial es lo suficientemente buena, ya que confiamos en que la serie taylor es una buena aproximación de la función.
[matemáticas] f (x_r) = f (x_n + \ delta) = f (x_n) + f ‘(x_n) (x_r – x_n) + \ frac {f’ ‘(x_n)} {2} (x_r – x_n) ^ 2 + \ mathcal {O} (\ delta ^ 3) [/ math].
Ahora, para insertar nuestra próxima estimación [matemática] x_ {n + 1} [/ matemática], reorganice el esquema de Newton Raphson para obtener
[matemáticas] f (x_n) = f ‘(x_n) (x_n – x_ {n + 1}) [/ matemáticas]
Sustituya esto en nuestra serie taylor para obtener
[matemáticas] f (x_r) = f ‘(x_n) (x_n – x_ {n + 1}) + f’ (x_n) (x_r – x_n) + \ frac {f ” (x_n)} {2} (x_r – x_n) ^ 2 + \ mathcal {O} (\ delta ^ 3) [/ math]
Finalmente, usando el hecho de que [math] x_r [/ math] es una raíz, podemos decir [math] f (x_r) = 0 [/ math]. Use esto para establecer el lado izquierdo en 0 y reorganizar para obtener
[matemática] 0 = f ‘(x_r – x_ {n + 1}) + \ frac {f’ ‘(x_n)} {2} (x_r – x_n) ^ 2 + \ matemática {O} (\ delta ^ 3) [/matemáticas].
Ahora defina el error en nuestras estimaciones como [math] e_n = x_r – x_n [/ math]. Una reordenación final para resolver [matemáticas] e_ {n + 1} [/ matemáticas] nos da
[matemática] e_ {n + 1} = – \ frac {f ” (x_n)} {2f ‘(x_n)} e_n ^ 2 + \ matemática {O} (\ delta ^ 3) [/ matemática].
Hemos absorbido una constante en la gran O aquí. Tenga en cuenta que en este reordenamiento, dividimos por [math] f ‘(x_n) [/ math]. Esto solo funciona si la derivada en una iteración particular no es 0. Esta última expresión nos dice que después de cada iteración, el error en nuestra nueva estimación es proporcional al cuadrado de nuestra estimación anterior (e incluso nos dice cuál es esta constante).
Esta prueba no solo prueba que el método de Newton Raphson converge, nos dice que necesitamos una estimación inicial lo suficientemente buena, nos da una idea de qué tan rápida es la convergencia y nos da la condición de que la derivada sea distinta de cero respecto de la raíz. Esto causa problemas si la derivada de la función es cero en la raíz, pero se puede demostrar que esto se reduce a la convergencia lineal, en lugar de la cuadrática.