El método de Newton, el algoritmo de Newton (también conocido como el método de la tangente ) es un método numérico iterativo para encontrar la raíz ( cero ) de una función dada . El método fue propuesto por primera vez por el físico , matemático y astrónomo inglés Isaac Newton ( 1643-1727 ) . La búsqueda de una solución se realiza mediante la construcción de aproximaciones sucesivas y se basa en los principios de iteración simple . El método tiene convergencia cuadrática . Una modificación del método es el método de cuerdas y tangentes . Además, el método de Newton se puede utilizar para resolver problemas de optimización en los que se requiere determinar el cero de la primera derivada o gradiente en el caso de un espacio multidimensional.
Para resolver numéricamente la ecuación por el método de iteración simple , se debe reducir a una ecuación equivalente: , donde es el mapeo de contracción .
Para la mejor convergencia del método en el punto de la próxima aproximación , la condición debe ser satisfecha . La solución de esta ecuación se busca en la forma , entonces:
Suponiendo que el punto de aproximación está "lo suficientemente cerca" de la raíz y que la función dada es continua , la fórmula final para es:
Con esto en mente, la función se define:
Bajo ciertas condiciones, esta función realiza un mapeo de contracción en una vecindad de la raíz.
PruebaSea dada una función de variable real que sea dos veces continuamente diferenciable en su dominio de definición y cuya derivada nunca se anule:
Y es necesario probar que la función realiza un mapeo de contracción cerca de la raíz de la ecuación .
Debido a la diferenciabilidad continua de la función y la desigualdad de cero, su primera derivada es continua .
la derivada es:
Bajo las condiciones impuestas a , también es continuo. Sea la raíz buscada de la ecuación: , por lo tanto, en su vecindad :
Entonces, según el teorema de Lagrange :
Debido al hecho de que en el mismo barrio del delta, lo siguiente es cierto:
La función así obtenida en la vecindad de la raíz implementa un mapeo de contracción . ■
En este caso, el algoritmo para encontrar una solución numérica a la ecuación se reduce a un procedimiento de cálculo iterativo :
Según el teorema de Banach , la secuencia de aproximaciones tiende a la raíz de la ecuación .
La idea principal del método es la siguiente: la aproximación inicial se establece cerca de la raíz hipotética, luego de lo cual se traza una tangente a la gráfica de la función en estudio en el punto de aproximación, para lo cual la intersección con el eje de abscisas es fundar. Este punto se toma como la siguiente aproximación. Y así sucesivamente, hasta alcanzar la precisión requerida.
Sea 1) una función de valor real continuamente diferenciable en el intervalo ;
2) hay un punto requerido : ;
3) también hay tales que
por
y
para ;
4) el punto es tal que . Entonces , la fórmula para la aproximación iterativa a k
se puede derivar del significado geométrico de la tangente de la siguiente manera:
donde es el ángulo de inclinación de la recta tangente a la gráfica en el punto .
Por tanto (en la ecuación de la recta tangente suponemos ) la expresión deseada para tiene la forma:
Si , entonces este valor puede usarse como la siguiente aproximación a .
Si , entonces hay un “vuelo” (la raíz se encuentra cerca del límite ). En este caso, es necesario (usando la idea del método de bisección ) reemplazar con hasta que el punto "retorne" al área de búsqueda .
Comentarios. 1) La presencia de una derivada continua permite construir una tangente que cambia continuamente en toda el área de la búsqueda de una solución .
2) Los casos de ubicación límite (en un punto o en un punto ) de la solución deseada se consideran de manera similar.
3) Desde un punto de vista geométrico, la igualdad
significa que la recta tangente a la gráfica
en el punto
- es paralela al eje
y
no lo corta al final.
4) Cuanto mayor sea la constante y menor la constante del párrafo 3 de las condiciones, más cerca estará la
intersección de la tangente a la gráfica y el eje al punto , es decir, más cerca será el valor del deseado .
El proceso iterativo comienza con alguna aproximación inicial , y entre y el punto deseado no debe haber otros ceros de la función , es decir, “cuanto más cerca de la raíz deseada , mejor”. Si no hay suposiciones sobre el hallazgo , la prueba y el error pueden reducir el rango de valores posibles aplicando el teorema del valor intermedio .
Para predefinido ,
el proceso iterativo finaliza si
y
.
En particular, para la matriz de visualización y puede calcularse en función de la escala de visualización del gráfico , es decir, si y cae en una fila
vertical y en una horizontal.
Considere el problema de encontrar positivo , para lo cual . Esta tarea se puede representar como la tarea de encontrar el cero de la función . Tenemos una expresión para la derivada . Como para todos y para , es obvio que la solución se encuentra entre 0 y 1. Tomemos el valor como una aproximación inicial , entonces:
Los dígitos significativos válidos están subrayados . Se puede ver que su número aumenta de paso a paso (aproximadamente duplicándose con cada paso): de 1 a 2, de 2 a 5, de 5 a 10, lo que ilustra la tasa de convergencia cuadrática .
Consideremos una serie de ejemplos que señalan las deficiencias del método.
Dejar
Después
Tomemos cero como una aproximación inicial. La primera iteración dará la unidad como una aproximación. A su vez, el segundo volverá a dar cero. El método se repetirá y no se encontrará ninguna solución. En general, la construcción de una secuencia de aproximaciones puede resultar muy confusa .
Considere una función:
Entonces y en todas partes excepto 0.
En las proximidades de la raíz, la derivada cambia de signo cuando se acerca a cero por la derecha o por la izquierda. mientras que para .
Por lo tanto, no está acotada cerca de la raíz y el método diverge, aunque la función es diferenciable en todas partes, su derivada es distinta de cero en la raíz, infinitamente diferenciable en todas partes excepto en la raíz, y su derivada está acotada alrededor de la raíz. .
Considere un ejemplo:
Entonces y excepto donde no está definido.
En el siguiente paso, tenemos :
La tasa de convergencia de la secuencia resultante es de aproximadamente 4/3. Esto es significativamente menor que 2, lo cual es necesario para la convergencia cuadrática, por lo que en este caso solo podemos hablar de convergencia lineal, aunque la función es continuamente diferenciable en todas partes , la derivada en la raíz no es igual a cero y es infinitamente diferenciable en todas partes . excepto en la raíz.
Dejar
Entonces y por lo tanto . Así, la convergencia del método no es cuadrática, sino lineal, aunque la función es infinitamente diferenciable en todas partes.
Sea dada la ecuación , donde y es necesario encontrar su solución.
A continuación se presenta la formulación del teorema principal, que nos permite dar condiciones claras de aplicabilidad. Lleva el nombre del matemático y economista soviético Leonid Vitalievich Kantorovich ( 1912-1986 ) .
El teorema de Kantorovich.
Si existen constantes tales que:
Además, la longitud del segmento considerado . Entonces las siguientes afirmaciones son verdaderas:
Del último enunciado del teorema, en particular, se sigue la convergencia cuadrática del método:
Entonces las restricciones en la función original se verán así:
El método fue descrito por Isaac Newton en el manuscrito On the Analysis by Equations of Infinite Series ( en latín: De analysi per aequationes numero terminorum infinitas ) dirigido a Barrow en 1669 , y en The Method of Fluxions and Infinite Series ( en latín: De metodis fluxionum et serierum infinitarum" ) o " Geometría analítica " ( del lat. "Geometria analytica" ) en las colecciones de las obras de Newton, que fue escrita en 1671 . En sus escritos, Newton introduce conceptos como la expansión de una función en una serie , infinitesimales y fluxiones ( derivadas en el sentido actual). Estas obras se publicaron mucho más tarde: la primera se publicó en 1711 gracias a William Johnson, la segunda fue publicada por John Colzon en 1736 tras la muerte del creador. Sin embargo, la descripción del método difería significativamente de su exposición actual: Newton aplicó su método exclusivamente a polinomios . No calculó aproximaciones sucesivas , sino una secuencia de polinomios y como resultado recibió una solución aproximada .
El método fue publicado por primera vez en el tratado "Álgebra" de John Wallis en 1685, a cuyo pedido el mismo Newton lo describió brevemente. En 1690, Joseph Raphson publicó una descripción simplificada en su "Analysis aequationum universalis" ( en latín: "Analysis aequationum universalis" ). Raphson vio el método de Newton como puramente algebraico y limitó su aplicación a polinomios, pero describió el método en términos de aproximaciones sucesivas en lugar de la secuencia de polinomios más difícil de entender utilizada por Newton. Finalmente, en 1740, Thomas Simpson describió el método de Newton como un método iterativo de primer orden para resolver ecuaciones no lineales usando una derivada, como se presenta aquí. En la misma publicación, Simpson generalizó el método al caso de un sistema de dos ecuaciones y señaló que el método de Newton también se puede aplicar a problemas de optimización al encontrar el cero de la derivada o gradiente .
En 1879, Arthur Cayley , en El problema imaginario de Newton-Fourier, fue el primero en señalar las dificultades de generalizar el método de Newton al caso de raíces imaginarias de polinomios de grado superior al segundo y aproximaciones iniciales complejas. Este trabajo allanó el camino para el estudio de la teoría fractal .
El método de la secante relacionado es el método "aproximado" de Newton y evita calcular la derivada. El valor de la derivada en la fórmula iterativa se reemplaza por su estimación para los dos puntos de iteración anteriores:
.
Por lo tanto, la fórmula principal tiene la forma
Este método es similar al de Newton, pero tiene una tasa de convergencia ligeramente más lenta. El orden de convergencia del método es igual a la proporción áurea - 1.618 ...
Comentarios. 1) Para iniciar el proceso iterativo se requieren dos valores diferentes de
y
.
2) En contraste con el “método de Newton real” (el método de la tangente), que requiere almacenar solo
(y temporalmente durante los cálculos y ), el método de la secante requiere guardar
,
,
,
.
3) Se utiliza si el cálculo es difícil (por ejemplo, requiere una gran cantidad de recursos de la máquina: tiempo y/o memoria).
Para reducir el número de llamadas a los valores de la derivada de una función, se utiliza el llamado método de una tangente.
La fórmula de iteración para este método es:
La esencia del método es calcular la derivada solo una vez, en el punto de aproximación inicial , y luego usar este valor en cada iteración subsiguiente:
Con esta elección , se cumple la siguiente igualdad en el punto :
y si el segmento en el que se supone la presencia de una raíz y se elige la aproximación inicial es lo suficientemente pequeño, y la derivada es continua, entonces el valor no diferirá mucho de y, por lo tanto, la gráfica pasará casi horizontalmente, cortando la recta , que a su vez asegurará una rápida convergencia de la secuencia de puntos de aproximación a la raíz.
Este método es un caso especial del método de iteración simple . Tiene un orden lineal de convergencia.
Generalicemos el resultado obtenido al caso multidimensional.
Sea necesario encontrar una solución al sistema:
Eligiendo algún valor inicial , se obtienen aproximaciones sucesivas resolviendo sistemas de ecuaciones :
donde _
Sea necesario encontrar el mínimo de una función de varias variables . Esta tarea es equivalente al problema de encontrar el cero del gradiente . Apliquemos el método de Newton anterior:
donde es el hessiano de la función .
En una forma iterativa más conveniente, esta expresión se ve así:
Cabe señalar que en el caso de una función cuadrática, el método de Newton encuentra un extremo en una iteración.
Encontrar la matriz hessiana es computacionalmente costoso y, a menudo, no es posible. En tales casos, los métodos cuasi-newtonianos pueden servir como una alternativa , en los que se construye una aproximación de la matriz hessiana en el proceso de acumulación de información sobre la curvatura de la función.
El método de Newton-Raphson es una mejora del método extremum de Newton descrito anteriormente. La principal diferencia es que en la siguiente iteración, uno de los métodos de optimización unidimensional selecciona el paso óptimo:
donde Para optimizar los cálculos, se utiliza la siguiente mejora: en lugar de recalcular la hessiana de la función objetivo en cada iteración , nos restringimos a la aproximación inicial y la actualizamos solo una vez por pasos, o no la actualizamos en absoluto.
En la práctica, a menudo hay tareas en las que se requiere ajustar los parámetros libres de un objeto o ajustar el modelo matemático a datos reales. En estos casos, aparecen problemas de mínimos cuadrados :
Estos problemas se distinguen por un tipo especial de gradiente y matriz hessiana :
donde es la matriz de Jacobi de la función vectorial , es la matriz hessiana de su componente .
Luego, el siguiente paso se determina a partir del sistema:
El método de Gauss-Newton se basa en la suposición de que el término domina sobre . Este requisito no se cumple si los residuos mínimos son grandes, es decir, si la norma es comparable al valor propio máximo de la matriz . De lo contrario, puedes escribir:
Así, cuando la norma es cercana a cero, y la matriz tiene rango de columna completo , el paso difiere poco del newtoniano (teniendo en cuenta ), y el método puede alcanzar una tasa de convergencia cuadrática, aunque no se toman en cuenta las segundas derivadas. cuenta. Una mejora del método es el algoritmo de Levenberg-Marquardt basado en consideraciones heurísticas .
Hasta ahora, en la descripción del método se utilizaban funciones que realizan mapeos dentro del conjunto de valores reales . Sin embargo, el método también se puede aplicar para encontrar el cero de una función de una variable compleja . Sin embargo, el procedimiento sigue siendo el mismo:
De particular interés es la elección de la aproximación inicial . En vista del hecho de que una función puede tener varios ceros, en diferentes casos el método puede converger a diferentes valores, y es bastante natural querer averiguar qué áreas asegurarán la convergencia a una raíz particular. Esta pregunta interesó a Arthur Cayley allá por 1879 , pero solo fue posible resolverla en los años 70 del siglo XX con la llegada de la tecnología informática. Resultó que en las intersecciones de estas regiones (que generalmente se llaman regiones de atracción ), se forman los llamados fractales : infinitas figuras geométricas autosimilares.
Debido al hecho de que Newton aplicó su método exclusivamente a polinomios , los fractales formados como resultado de dicha aplicación se conocieron como fractales de Newton o piscinas de Newton .
de optimización | Métodos|
---|---|
unidimensional |
|
orden cero | |
Primer orden | |
segundo orden | |
estocástico | |
Métodos de programación lineal | |
Métodos de programación no lineal |