Optimización (matemáticas)

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 25 de septiembre de 2021; las comprobaciones requieren 4 ediciones .

La optimización (en matemáticas , ciencias de la computación e investigación de operaciones ) es la tarea de encontrar un extremo (mínimo o máximo) de una función objetivo en alguna región de un espacio vectorial de dimensión finita , limitado por un conjunto de funciones lineales y/o no igualdades y/o desigualdades lineales .

La teoría y los métodos para resolver un problema de optimización se estudian mediante programación matemática .

La programación matemática  es una rama de las matemáticas que desarrolla teoría, métodos numéricos para resolver problemas multidimensionales con restricciones. [una]

Enunciado del problema de optimización

En el proceso de diseño , la tarea generalmente se establece para determinar la mejor, en cierto sentido, estructura o valores de los parámetros del objeto . Tal problema se llama un problema de optimización. Si la optimización está asociada con el cálculo de valores de parámetros óptimos para una estructura de objeto dada, entonces se llama optimización paramétrica . El problema de elegir la estructura óptima es la optimización estructural .

El problema estándar de optimización matemática se formula de esta manera. Entre los elementos χ que forman los conjuntos X, encuentre un elemento χ * que proporcione el valor mínimo f(χ * ) de la función dada f(χ). Para plantear correctamente el problema de optimización, es necesario establecer:

  1. El conjunto admisible  es el conjunto ;
  2.  mapeo de funciones objetivas ;
  3. Criterio de búsqueda (máx o min).

Entonces resolver el problema significa uno de:

  1. Muéstrale eso .
  2. Demuestre que la función objetivo no está acotada por debajo.
  3. Encuentra _
  4. Si , entonces encuentra .

Si la función que se minimiza no es convexa , entonces a menudo se limitan a encontrar mínimos y máximos locales: puntos tales que en todas partes en algunos de sus vecindarios para un mínimo y un máximo.

Si el conjunto es admisible , entonces dicho problema se denomina problema de optimización incondicional , de lo contrario, problema de optimización condicional .

Clasificación de los métodos de optimización

La notación general de los problemas de optimización define una amplia variedad de sus clases. La elección del método (la eficiencia de su solución) depende de la clase del problema. La clasificación de los problemas viene determinada por: la función objetivo y el área admisible (dada por un sistema de desigualdades e igualdades o un algoritmo más complejo). [2]

Los métodos de optimización se clasifican según las tareas de optimización:

Los métodos de búsqueda existentes actualmente se pueden dividir en tres grandes grupos:

  1. determinista;
  2. aleatorio (estocástico);
  3. conjunto.

Según el criterio de la dimensión del conjunto factible, los métodos de optimización se dividen en métodos de optimización unidimensionales y métodos de optimización multidimensionales .

Por la forma de la función objetivo y el conjunto admisible, los problemas de optimización y los métodos para su solución se pueden dividir en las siguientes clases:

De acuerdo con los requisitos de suavidad y la presencia de derivadas parciales en la función objetivo, también se pueden dividir en:

Además, los métodos de optimización se dividen en los siguientes grupos:

Dependiendo de la naturaleza del conjunto X , los problemas de programación matemática se clasifican en:

Además, las ramas de la programación matemática son la programación paramétrica , la programación dinámica y la programación estocástica .

La programación matemática se utiliza para resolver problemas de optimización en la investigación de operaciones .

El método para encontrar el extremo está completamente determinado por la clase del problema. Pero antes de obtener un modelo matemático, debe realizar 4 etapas de modelado:

Historia

Los problemas de programación lineal fueron los primeros problemas estudiados en detalle para encontrar el extremo de funciones en presencia de restricciones tales como desigualdades . En 1820, Fourier y luego en 1947 George Dantzig propusieron un método de enumeración dirigida de vértices adyacentes en la dirección de la función objetivo creciente  : el método simplex , que se convirtió en el principal para resolver problemas de programación lineal.

La presencia del término "programación" en el nombre de la disciplina se explica porque los primeros estudios y las primeras aplicaciones de los problemas de optimización lineal fueron en el campo de la economía, ya que en inglés la palabra "programación" significa planificación , dibujo. elaborar planes o programas. Es bastante natural que la terminología refleje la estrecha relación que existe entre la formulación matemática del problema y su interpretación económica (estudio del programa económico óptimo). El término " programación lineal " fue propuesto por J. Danzig en 1949 para estudiar problemas teóricos y algorítmicos relacionados con la optimización de funciones lineales bajo restricciones lineales.

Por lo tanto, el nombre de "programación matemática" se debe a que el objetivo de la resolución de problemas es elegir el programa óptimo de acciones.

La identificación de una clase de problemas extremos definidos por un funcional lineal en un conjunto definido por restricciones lineales debe atribuirse a la década de 1930. Uno de los primeros en estudiar los problemas de programación lineal de forma general fueron: John von Neumann  , matemático y físico que demostró el teorema principal sobre los juegos de matrices y estudió el modelo económico que lleva su nombre, y L. V. Kantorovich  , académico soviético, Nobel Ganador del premio (1975), que formuló una serie de problemas de programación lineal y propuso en 1939 un método para resolverlos ( el método de resolución de factores ), que difiere ligeramente del método simplex.

En 1931, el matemático húngaro B. Egervari consideró una formulación matemática y resolvió un problema de programación lineal llamado "problema de elección", el método de solución se denominó " método húngaro ".

L. V. Kantorovich y M. K. Gavurin desarrollaron el método de los potenciales en 1949 , que se utiliza para resolver problemas de transporte . En trabajos posteriores de L. V. Kantorovich, V. S. Nemchinov , V. V. Novozhilov , A. L. Lurie , A. Brudno , A. G. Aganbegyan , D. B. Yudin , E. G. Golshtein y otros matemáticos y economistas desarrollaron aún más la teoría matemática de la programación lineal y no lineal y la aplicación de sus métodos. al estudio de diversos problemas económicos.

Muchos trabajos de científicos extranjeros están dedicados a los métodos de programación lineal. En 1941, F. L. Hitchcock planteó el desafío del transporte . El método básico para resolver problemas de programación lineal, el método simplex  , fue publicado en 1949 por J. Dantzig. Los métodos de programación lineal y no lineal se desarrollaron aún más en los trabajos de G. Kuhn , A. Tucker , Gass (Saul I. Gass), Charnes (A. Charnes), Beale (EM Beale) y otros.

Simultáneamente con el desarrollo de la programación lineal, se prestó mucha atención a los problemas de programación no lineal , en los que la función objetivo , las restricciones o ambas son no lineales. En 1951 se publicó el trabajo de G. Kuhn y A. Tucker , en el que se daban las condiciones de optimalidad necesarias y suficientes para la resolución de problemas de programación no lineal. Este trabajo sirvió de base para investigaciones posteriores en esta área.

Desde 1955 se han publicado numerosos trabajos dedicados a la programación cuadrática (trabajos de Beal, Barankin y R. Dorfman , Frank (M. Frank) y F. Wolf , G. Markowitz , etc.). Los trabajos de Dennis (JB Dennis), Rosen (JB Rosen) y Zontendijk (G. Zontendijk) desarrollaron métodos de gradiente para resolver problemas de programación no lineal.

En la actualidad, para la aplicación efectiva de métodos de programación matemática y resolución de problemas en computadoras, se han desarrollado lenguajes de modelado algebraico , cuyos representantes son AMPL y LINGO .

Véase también

Notas

  1. Fuente: Biblioteca Científica Universal Regional de Altai. V. Ya. Shishkova (AKUNB) Archivado el 5 de marzo de 2022 en Wayback Machine . Métodos de optimización: Proc. tolerancia. Brazovskaya NV; Universidad Técnica Estatal de Altai I. I. Polzunova, [Centro de Distancia. formación].-Barnaul: Editorial de AltSTU, 2000, 120 p. -UDC/LBC 22.183.4 B871
  2. Encontrar el Óptimo: La Computadora Expande las Posibilidades . - M. : Nauka, 1989. - S.  14 . — ISBN 5-02-006737-7 .

Literatura

Enlaces