Los métodos de Rosenbrock son un conjunto de métodos numéricos que llevan el nombre de Howard G. Rosenbrock .
Los métodos de ecuaciones diferenciales rígidas de Rosenbrock son una familia de métodos de un solo paso para resolver ecuaciones diferenciales ordinarias [1] [2] . Los métodos están relacionados con los métodos implícitos de Runge-Kutta [3] y también se conocen como métodos de Kaps-Rentrop [4] .
El método de Rosenbrock , también conocido como método de rotación de coordenadas , es un método directo (método de descenso de orden 0) para resolver problemas de optimización multidimensional . La esencia del método es similar al método de Gauss , pero después de cada iteración, se seleccionan nuevos ejes de coordenadas. La diferencia entre las dos últimas soluciones intermedias se elige como primer eje, los ejes restantes se eligen ortogonales utilizando la ortogonalización de Gram-Schmidt .
Se aplica a problemas en los que la función objetivo se calcula fácilmente y la derivada no existe o no se puede calcular de manera eficiente [5] . La búsqueda de Rosenbrock es una variante de la búsqueda sin derivadas , pero puede funcionar mejor con cúspides [6] . El método a menudo destaca una cornisa de este tipo, que en muchas aplicaciones conduce a una solución [7] . La idea de la búsqueda de Rosenbrock también se utiliza para inicializar algunos métodos de solución numérica de ecuaciones como fzero (basado en el método de Brent ) en Matlab .
de optimización | Métodos|
---|---|
unidimensional |
|
orden cero | |
Primer orden | |
segundo orden | |
estocástico | |
Métodos de programación lineal | |
Métodos de programación no lineal |