Control óptimo

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 21 de septiembre de 2020; las comprobaciones requieren 3 ediciones .
Control óptimo

El control óptimo  es la tarea de diseñar un sistema que proporcione, para un objeto o proceso de control determinado, una ley de control o una secuencia de control de acciones que proporcionen el máximo o el mínimo de un conjunto determinado de criterios de calidad del sistema [1] .

Definición

El problema de control óptimo incluye el cálculo del programa de control óptimo y la síntesis del sistema de control óptimo. Los programas de control óptimos, por regla general, se calculan mediante métodos numéricos para encontrar el extremo de un funcional o resolver un problema de valor límite para un sistema de ecuaciones diferenciales [2] . Desde un punto de vista matemático, la síntesis de sistemas de control óptimos es un problema de programación no lineal en espacios funcionales [3] .

Para resolver el problema de determinar el programa de control óptimo, se construye un modelo matemático de un objeto o proceso controlado que describe su comportamiento en el tiempo bajo la influencia de las acciones de control y su propio estado actual [4] .

Si no se conoce de antemano el modelo matemático del objeto o proceso controlado, entonces para determinarlo es necesario realizar el procedimiento de identificación del objeto o proceso controlado [5]

El modelo matemático para el problema de control óptimo incluye: la formulación de la meta de control, expresada a través del criterio de calidad de control; definición de ecuaciones diferenciales o en diferencias [6] que describen posibles formas de movimiento del objeto de control; definición de restricciones sobre los recursos utilizados en forma de ecuaciones o desigualdades [7] .

Todos los problemas de control óptimo se pueden considerar como problemas de programación matemática y se pueden resolver de esta forma mediante métodos numéricos. [8] [9]

Con una gestión óptima de sistemas jerárquicos multinivel, por ejemplo, grandes industrias químicas, complejos metalúrgicos y energéticos, se utilizan sistemas jerárquicos multipropósito y multinivel de control óptimo. El modelo matemático introduce criterios de calidad de gestión para cada nivel de gestión y para todo el sistema en su conjunto, así como la coordinación de acciones entre niveles de gestión [10] [11] .

Si un objeto o proceso controlado es determinista, se utilizan ecuaciones diferenciales para describirlo. Las ecuaciones diferenciales ordinarias más utilizadas son de la forma . En modelos matemáticos más complejos (para sistemas con parámetros distribuidos), se utilizan ecuaciones diferenciales parciales para describir un objeto . Si el objeto controlado es estocástico, entonces se utilizan ecuaciones diferenciales estocásticas para describirlo .

La teoría de los juegos diferenciales se utiliza para resolver problemas de control óptimo en condiciones de conflicto o incertidumbre . [12]

Si la solución del problema dado de control óptimo no depende continuamente de los datos iniciales ( problema mal planteado ), entonces dicho problema se resuelve mediante métodos numéricos especiales. [13]

Para resolver problemas de control óptimo con información inicial incompleta y en presencia de errores de medición, se utiliza el método de máxima verosimilitud [14] .

Un sistema de control óptimo capaz de acumular experiencia y mejorar su trabajo sobre esta base se denomina sistema de control óptimo de aprendizaje [15] .

El comportamiento real de un objeto o sistema siempre difiere del programa debido a inexactitudes en las condiciones iniciales, información incompleta sobre las perturbaciones externas que actúan sobre el objeto, inexactitudes en la implementación del control del programa, etc. Por lo tanto, para minimizar la desviación del objeto comportamiento del óptimo, se suele utilizar un sistema de control automático . [dieciséis]

A veces (por ejemplo, cuando se manejan objetos complejos, como un alto horno en metalurgia o cuando se analiza información económica), los datos iniciales y el conocimiento sobre el objeto controlado al establecer el problema de control óptimo contienen información incierta o confusa que no puede ser procesada por métodos tradicionales. Métodos cuantitativos. En tales casos, se pueden utilizar algoritmos de control óptimo basados ​​en la teoría matemática de conjuntos borrosos (control difuso ). Los conceptos y conocimientos utilizados se convierten en una forma difusa, se determinan reglas difusas para inferir decisiones y luego se realiza la transformación inversa de decisiones difusas en variables de control físico. [17] [11]

Para una gestión óptima de los procesos económicos se utilizan métodos de cibernética económica , teoría de juegos , teoría de grafos [18]

Control óptimo de sistemas deterministas

Sistemas agrupados

Más ampliamente en el diseño de sistemas de control para objetos deterministas con parámetros agrupados descritos por ecuaciones diferenciales ordinarias, se utilizan los siguientes métodos: cálculo de variaciones , principio máximo de Pontryagin y programación dinámica de Bellman [1] .

Problema de control óptimo

Formulamos el problema de control óptimo:

  • Ecuaciones de estado: (1).
  • Condiciones de contorno , (2).
  • Funcional minimizado: .

aquí  — vector de estado  — control,  — momentos iniciales y finales de tiempo.

El problema de control óptimo es encontrar las funciones de estado y control para el tiempo , que minimicen el funcional.

Cálculo de variaciones

Considere este problema de control óptimo como un problema de Lagrange del cálculo de variaciones [19] . Para encontrar las condiciones necesarias para un extremo, aplicamos el teorema de Euler-Lagrange [19] . La función de Lagrange tiene la forma: , donde  son las condiciones de contorno. El Lagrangiano tiene la forma: , donde , ,  son vectores n-dimensionales de multiplicadores de Lagrange .

Las condiciones necesarias para un extremum, según este teorema, son:

  • estacionariedad en u: , (3)
  • estacionariedad en x, ecuación de Euler: (4)
  • transversalidad en x: , (5)

Las condiciones necesarias (3-5) forman la base para determinar las trayectorias óptimas. Habiendo escrito estas ecuaciones, obtenemos un problema de contorno de dos puntos, donde parte de las condiciones de contorno se establecen en el momento inicial del tiempo, y el resto en el momento final. Los métodos para resolver tales problemas se discuten en detalle en el libro [20]

Principio máximo de Pontryagin

La necesidad en principio del máximo de Pontryagin surge cuando en ninguna parte del rango admisible de la variable de control es imposible satisfacer la condición necesaria (3), a saber .

En este caso, la condición (3) se reemplaza por la condición (6):

(6)

En este caso, según el principio del máximo de Pontryagin, el valor del control óptimo es igual al valor del control en uno de los extremos del rango admisible. Las ecuaciones de Pontryagin se escriben usando la función de Hamilton , definida por la relación . De las ecuaciones se deduce que la función de Hamilton está relacionada con la función de Lagrange de la siguiente manera: . Sustituyendo la última ecuación en las ecuaciones (3–5), obtenemos las condiciones necesarias expresadas en términos de la función de Hamilton:

  • ecuación de control para u: , (7)
  • ecuación de estado: , (8)
  • ecuación adjunta: , (9)
  • transversalidad en x: , (10)

Las condiciones necesarias escritas de esta forma se llaman ecuaciones de Pontryagin. El principio máximo de Pontryagin se analiza con más detalle en el libro [19] .

Ejemplo

Sea necesario para resolver el problema de minimizar el funcional:

, donde , , .

La función de Hamilton en este caso tiene la forma:

.

De las condiciones 9) y 10) encontramos que:

, .

Obtenemos:

.

El máximo de esta función con respecto a , , se alcanza en , donde

Por condición, . Medio:

De , obtenemos . A partir de la condición de continuidad en el punto, encontramos la constante .

De este modo:

Se puede comprobar que las encontradas y constituyen la solución óptima de este problema [21]

En su caso

El principio máximo es especialmente importante en los sistemas de control con máxima velocidad y mínimo consumo de energía, donde se utilizan controles tipo relé que toman valores extremos en lugar de intermedios en el intervalo de control permitido.

Historia

Por el desarrollo de la teoría del control óptimo , L. S. Pontryagin y sus colaboradores V. G. Boltyansky , R. V. Gamkrelidze y E. F. Mishchenko recibieron el Premio Lenin en 1962 .

Método de programación dinámica

El método de programación dinámica se basa en el principio de optimización de Bellman, que se formula de la siguiente manera: la estrategia de control óptima tiene la propiedad de que cualquiera que sea el estado inicial y el control al comienzo del proceso, los controles posteriores deben constituir la estrategia de control óptima con respecto a el estado obtenido después de la etapa inicial del proceso [22] . El método de programación dinámica se describe con más detalle en el libro [23]

Condiciones suficientes de optimalidad

Las condiciones suficientes para la optimización de procesos controlados fueron obtenidas en 1962 por V. F. Krotov , a partir de ellas se construyeron métodos computacionales iterativos de mejora sucesiva, que permitieron encontrar un óptimo global en problemas de control [24] [25] [26] .

Control óptimo de sistemas con parámetros distribuidos

En tareas de control óptimo de objetos tales como un horno de calentamiento continuo, un intercambiador de calor , una instalación de revestimiento, una unidad de secado, un reactor químico , una planta de separación de mezclas, un alto horno o de hogar abierto , una batería de horno de coque, un laminador molino , un horno de calentamiento por inducción, etc. El proceso controlado se describe mediante ecuaciones diferenciales parciales, ecuaciones integrales y ecuaciones integro-diferenciales.

La teoría del control óptimo en este caso se ha desarrollado solo para ciertos tipos de estas ecuaciones: tipos elíptico, parabólico e hiperbólico.

En algunos casos simples, es posible obtener un análogo del principio máximo de Pontryagin. [27] [28]

Si las soluciones de los sistemas de ecuaciones tienen inestabilidades, puntos de discontinuidad, puntos de bifurcación, soluciones múltiples, entonces se utilizan varios métodos especiales para obtenerlas [29] .

Problema de control óptimo
  • Alcance del proceso gestionado
  • Ecuaciones que describen el proceso controlado: , donde  —  es el vector dimensional que describe el proceso controlado,  —  es el vector dimensional de las derivadas del vector con respecto a la coordenada ,  —  es el vector dimensional de las derivadas del vector con respecto a la coordenada ,  —  es el vector de control dimensional.
  • Condiciones de contorno para un proceso controlado:
  • La tarea del control óptimo es encontrar tal control para el cual la solución admisible por las ecuaciones conduzca al máximo de la funcional .
El principio máximo para sistemas con parámetros distribuidos

Para formular el principio del máximo para sistemas con parámetros distribuidos, se introduce la función de Hamilton: , donde las funciones auxiliares deben satisfacer las ecuaciones y condiciones de contorno para , para , .

Si es el control óptimo y son las funciones obtenidas bajo el control óptimo las que satisfacen las ecuaciones , entonces la función , considerada como una función del argumento , alcanza un máximo en la región en , es decir, para casi todos los puntos , la igualdad

Si el sistema es un sistema lineal de la forma , entonces el teorema

Para un control óptimo en el caso lineal, es necesario y suficiente que se cumpla el principio máximo.

Ver la demostración de estos dos teoremas en el libro [28] .

Control óptimo de sistemas estocásticos lineales

En este caso, el objeto o proceso controlado se describe mediante ecuaciones diferenciales estocásticas lineales . En este caso, la solución del problema de control óptimo se realiza en base a la ecuación de Riccati [30] .

Problema de control óptimo

  • El sistema se describe mediante ecuaciones diferenciales estocásticas lineales , donde  es un vector de estado -dimensional,  es un vector de control -dimensional,  es un vector -dimensional de variables observadas,  son procesos de Wiener independientes con valores medios cero y covarianzas incrementales dadas,  son matrices.
  • Es necesario encontrar el control óptimo que minimice la expectativa matemática de la función de pérdida .

Véase también

Notas

  1. 1 2 Samoylenko VI, Puzyrev V.A., Grubrin IV "Cibernética técnica", libro de texto. subsidio, M., editorial MAI , 1994, 280 p. il ., ISBN 5-7035-0489-9 , cap. 4 "Sistemas de control óptimo para objetos y procesos dinámicos", p. 63-113;
  2. Moiseev, 1975 , pág. 114.
  3. Moiseev, 1975 , pág. 316.
  4. Rastrigin L. A. Este mundo aleatorio, aleatorio, aleatorio. - M., Guardia Joven, 1969. - S. 47 - 50
  5. Rastrigin L. A. , Madzharov N. E. Introducción a la identificación de objetos de control. - M. : Energía, 1977. - 216 p.
  6. Moiseev, 1975 , pág. 79-89.
  7. Korshunov Yu. M. "Fundamentos matemáticos de la cibernética", libro de texto. subsidio para universidades, 2ª ed., revisada. y add., M., "Energy", 1980, 424 págs., il., BBK 32.81 6F0.1, cap. 5 "Estructura y descripción matemática de problemas de control óptimo", p. 202;
  8. Tabaco, 1975 , p. Dieciocho.
  9. Moiseev, 1975 , pág. 304-368.
  10. Mesarovich M., Mako D., Tkahara I. Teoría de los sistemas jerárquicos multinivel - M., Mir, 1973. - p. 344
  11. 1 2 Moiseev, 1975 , p. 465-520.
  12. Krasovsky N. N., Subbotin A. I. Juegos diferenciales posicionales. - M., Nauka, 1974. - pág. 24
  13. Vasiliev F. P. Métodos para resolver problemas extremos. — M.: Nauka, 1981. — S. 159.
  14. Moiseev, 1975 , pág. 351-368.
  15. Tsypkin Ya. Z. Fundamentos de la teoría de los sistemas de aprendizaje. - M.: Nauka, 1970. - S. 252.
  16. Alexandrov A. G. Sistemas óptimos y adaptativos. - M .: Escuela superior, 1989. - 263 p. ISBN 5-06-000037-0
  17. Métodos de control robusto, neurodifuso y adaptativo: Libro de texto / Ed. N. D. Egupova, ed. 2nd, ster., M., Universidad Técnica Estatal Bauman de Moscú, 2002, 744 págs., ISBN 5-7038-2030-8 , circ. 2000 copias, parte 2 "Control difuso"
  18. Teplov L. What to Count: Ensayos populares sobre cibernética económica. - M., trabajador de Moskovsky, 1970. - 317 p.
  19. 1 2 3 E. M. Galeev, V. M. Tikhomirov “Optimización: teoría, ejemplos, tareas”, M., Editorial URSS, 2000, 320 pp., ISBN 5-8360-0041-7 , cap. 3 "Cálculo de variaciones", p. 6 "El problema de Lagrange", p. 173-181;
  20. "Métodos numéricos en la teoría de sistemas óptimos", Moiseev N. N. , "Nauka", 1971, 424 páginas con ilustraciones, cap. 2 "Métodos numéricos para calcular programas óptimos utilizando las condiciones necesarias para un extremo", págs. 80 - 155;
  21. Barbaumov V. E., Ermakov V. I., Kriventsova N. N. Manual de matemáticas para economistas. - M., Escuela Superior, 1987. - p. 243
  22. Bellmann R. "Programación dinámica", IL, M., 1960;
  23. "Métodos numéricos en la teoría de sistemas óptimos", Moiseev N. N. , "Nauka", 1971, 424 páginas con ilustraciones, cap. 3 "Métodos directos de la teoría del control óptimo", pp. 156-265;
  24. Voronov A. A. Teoría del control automático. T. 1. - M.: Escuela Superior, 1986, pp. 294-304.
  25. Vasiliev F. P. Métodos numéricos para resolver problemas extremos. - M.: Nauka, 1988, págs. 522-530.
  26. Krotov V. F. Métodos para resolver problemas variacionales basados ​​en condiciones suficientes para un mínimo absoluto. I—IV // Automatización y telemecánica, 1962, volumen 23, nº 12, páginas 1571—1583; 1963, volumen 24, número 5, páginas 581-598; 1963, tomo 24, nº 7, pp.826-843; 1965, vol.26, n.º 1, págs. 24-41.
  27. J.-L. Lions Control óptimo de sistemas descritos por ecuaciones diferenciales parciales, Moscú, Mir, 1972, 412 pp.
  28. 1 2 Butkovsky A. G. Teoría del control óptimo de sistemas con parámetros distribuidos, M., Nauka, 1965
  29. J.-L. Lions Control de sistemas distribuidos singulares, Moscú, Mir, 1987, 367 p.
  30. K. Yu. Ostrem Introducción a la teoría del control estocástico, M., Mir, 1973

Literatura

  • Rastrigin L. A. Principios modernos de manejo de objetos complejos. — M.: Sov. radio, 1980. - 232 p., BBC 32.815, galería de tiro. 12000 copias
  • Alekseev V. M., Tikhomirov V. M. , Fomin S. V. Control óptimo. - M .: Nauka, 1979, UDC 519.6, - 223 p., galería de tiro. 24000 copias
  • Volgin LN Control discreto óptimo de sistemas dinámicos. - M. : Nauka, 1986. - 240 p.
  • Tabak D., Kuo B. Control óptimo y programación matemática. — M .: Nauka, 1975. — 279 p.
  • Moiseev NN Elementos de la teoría de los sistemas óptimos. — M .: Nauka, 1975. — 526 p.
  • Galeev E. M. , Tikhomirov V. M. Un curso breve en la teoría de problemas extremos. - M. : MGU, 1989. - 204 p. - ISBN 5-211-00313-6 .
  • Krotov VF, Gurman VI Métodos y problemas de control óptimo. — M .: Nauka, 1973.
  • Pontryagin L. S., Boltyansky V. G., Gamkrelidze R. V., Mishchenko E. F. Teoría matemática de los procesos óptimos. — M .: Nauka, 1976.
  • Boltyansky VG Control óptimo de sistemas discretos. — M .: Nauka, 1973.
  • Butkovskiy AG Teoría del control óptimo de sistemas con parámetros distribuidos. — M .: Nauka, 1965.
  • Butkovsky A.G. Métodos de control para sistemas con parámetros distribuidos. — M .: Nauka, 1975.
  • Budak BM, Vasiliev FP Métodos aproximados para resolver problemas de control óptimo. - M. : MGU, 1969.
  • Oleinikov V. A., Zotov N. S., Prishvin A. M. Fundamentos del control óptimo y extremo. - M. : Escuela superior, 1969. - 296 p.
  • Degtyarev GL, Sirazetdinov TK Fundamentos teóricos del control óptimo de vehículos espaciales elásticos. - M. : Mashinostroenie, 1986. - 216 p.
  • Lerner A. Ya. , Rozenman E. A. Control óptimo. - M. : Energía, 1970. - 360 p.
  • Gurman V. I. , Tikhomirov V. N., Kirillova F. M. Control óptimo. - M. : Saber, 1978. - 144 p.
  • Boltyansky VG Métodos matemáticos de control óptimo. — M .: Nauka, 1969. — 408 p.
  • Young L. Conferencias sobre el cálculo de variaciones y la teoría del control óptimo. — M .: Mir, 1974. — 488 p.
  • Makarov I. M. , Lokhin V. M. Manko S. V. Inteligencia artificial y sistemas de control inteligente. — M .: Nauka , 2006. — 333 p. - 1000 copias.  — ISBN 5-02-033782-X .
  • Donchev A. Sistemas de control óptimo. Perturbaciones, aproximaciones y análisis de sensibilidad. — M .: Mir, 1987. — 156 p. - 6700 copias.
  • V. A. Ivanov, A. S. Yushchenko. Teoría de los Sistemas de Control Automático Discretos . - M. : Universidad Técnica Estatal de Moscú que lleva el nombre de N. E. Bauman , 2015. - 352 p. — ISBN 978-5-7038-4178-5 .
  • Kuzin L. T. Fundamentos de cibernética. - M. : Energía, 1973. - 504 p. — 30.000 copias.
  • Fursikov A. V. Control óptimo de sistemas distribuidos. Teoría y aplicaciones. - Novosibirsk: Nauchnaya kniga, 1999. - 352 p. - 1000 copias.  - ISBN 5-88119-017-3 .
  • Lions JL Gestión de sistemas distribuidos singulares. - Moscú: Nauka, 1987. - 368 p. - 3600 copias.
  • Khazen EM Métodos de soluciones estadísticas óptimas y problemas de control óptimo. - Moscú: Radio Soviética, 1968. - 256 p. — 12.000 copias.
  • Leitman J. Introducción a la teoría del control óptimo. - Moscú: Nauka, 1968. - 190 p. - 14.000 copias.
  • Saridis J. Sistemas de control estocástico autoorganizados. - Moscú: Nauka, 1980. - 400 p. - 4000 copias.
  • A. A. AGRACHEV y Yu. L. Sachkov Teoría del Control Geométrico . - Moscú: FIZMATLIT, 2004. - 391 p. — ISBN 5-9221-0532-9 .

Enlaces