Control óptimo |
---|
El control óptimo es la tarea de diseñar un sistema que proporcione, para un objeto o proceso de control determinado, una ley de control o una secuencia de control de acciones que proporcionen el máximo o el mínimo de un conjunto determinado de criterios de calidad del sistema [1] .
El problema de control óptimo incluye el cálculo del programa de control óptimo y la síntesis del sistema de control óptimo. Los programas de control óptimos, por regla general, se calculan mediante métodos numéricos para encontrar el extremo de un funcional o resolver un problema de valor límite para un sistema de ecuaciones diferenciales [2] . Desde un punto de vista matemático, la síntesis de sistemas de control óptimos es un problema de programación no lineal en espacios funcionales [3] .
Para resolver el problema de determinar el programa de control óptimo, se construye un modelo matemático de un objeto o proceso controlado que describe su comportamiento en el tiempo bajo la influencia de las acciones de control y su propio estado actual [4] .
Si no se conoce de antemano el modelo matemático del objeto o proceso controlado, entonces para determinarlo es necesario realizar el procedimiento de identificación del objeto o proceso controlado [5]
El modelo matemático para el problema de control óptimo incluye: la formulación de la meta de control, expresada a través del criterio de calidad de control; definición de ecuaciones diferenciales o en diferencias [6] que describen posibles formas de movimiento del objeto de control; definición de restricciones sobre los recursos utilizados en forma de ecuaciones o desigualdades [7] .
Todos los problemas de control óptimo se pueden considerar como problemas de programación matemática y se pueden resolver de esta forma mediante métodos numéricos. [8] [9]
Con una gestión óptima de sistemas jerárquicos multinivel, por ejemplo, grandes industrias químicas, complejos metalúrgicos y energéticos, se utilizan sistemas jerárquicos multipropósito y multinivel de control óptimo. El modelo matemático introduce criterios de calidad de gestión para cada nivel de gestión y para todo el sistema en su conjunto, así como la coordinación de acciones entre niveles de gestión [10] [11] .
Si un objeto o proceso controlado es determinista, se utilizan ecuaciones diferenciales para describirlo. Las ecuaciones diferenciales ordinarias más utilizadas son de la forma . En modelos matemáticos más complejos (para sistemas con parámetros distribuidos), se utilizan ecuaciones diferenciales parciales para describir un objeto . Si el objeto controlado es estocástico, entonces se utilizan ecuaciones diferenciales estocásticas para describirlo .
La teoría de los juegos diferenciales se utiliza para resolver problemas de control óptimo en condiciones de conflicto o incertidumbre . [12]
Si la solución del problema dado de control óptimo no depende continuamente de los datos iniciales ( problema mal planteado ), entonces dicho problema se resuelve mediante métodos numéricos especiales. [13]
Para resolver problemas de control óptimo con información inicial incompleta y en presencia de errores de medición, se utiliza el método de máxima verosimilitud [14] .
Un sistema de control óptimo capaz de acumular experiencia y mejorar su trabajo sobre esta base se denomina sistema de control óptimo de aprendizaje [15] .
El comportamiento real de un objeto o sistema siempre difiere del programa debido a inexactitudes en las condiciones iniciales, información incompleta sobre las perturbaciones externas que actúan sobre el objeto, inexactitudes en la implementación del control del programa, etc. Por lo tanto, para minimizar la desviación del objeto comportamiento del óptimo, se suele utilizar un sistema de control automático . [dieciséis]
A veces (por ejemplo, cuando se manejan objetos complejos, como un alto horno en metalurgia o cuando se analiza información económica), los datos iniciales y el conocimiento sobre el objeto controlado al establecer el problema de control óptimo contienen información incierta o confusa que no puede ser procesada por métodos tradicionales. Métodos cuantitativos. En tales casos, se pueden utilizar algoritmos de control óptimo basados en la teoría matemática de conjuntos borrosos (control difuso ). Los conceptos y conocimientos utilizados se convierten en una forma difusa, se determinan reglas difusas para inferir decisiones y luego se realiza la transformación inversa de decisiones difusas en variables de control físico. [17] [11]
Para una gestión óptima de los procesos económicos se utilizan métodos de cibernética económica , teoría de juegos , teoría de grafos [18]
Más ampliamente en el diseño de sistemas de control para objetos deterministas con parámetros agrupados descritos por ecuaciones diferenciales ordinarias, se utilizan los siguientes métodos: cálculo de variaciones , principio máximo de Pontryagin y programación dinámica de Bellman [1] .
Problema de control óptimoFormulamos el problema de control óptimo:
aquí — vector de estado — control, — momentos iniciales y finales de tiempo.
El problema de control óptimo es encontrar las funciones de estado y control para el tiempo , que minimicen el funcional.
Cálculo de variacionesConsidere este problema de control óptimo como un problema de Lagrange del cálculo de variaciones [19] . Para encontrar las condiciones necesarias para un extremo, aplicamos el teorema de Euler-Lagrange [19] . La función de Lagrange tiene la forma: , donde son las condiciones de contorno. El Lagrangiano tiene la forma: , donde , , son vectores n-dimensionales de multiplicadores de Lagrange .
Las condiciones necesarias para un extremum, según este teorema, son:
Las condiciones necesarias (3-5) forman la base para determinar las trayectorias óptimas. Habiendo escrito estas ecuaciones, obtenemos un problema de contorno de dos puntos, donde parte de las condiciones de contorno se establecen en el momento inicial del tiempo, y el resto en el momento final. Los métodos para resolver tales problemas se discuten en detalle en el libro [20]
Principio máximo de PontryaginLa necesidad en principio del máximo de Pontryagin surge cuando en ninguna parte del rango admisible de la variable de control es imposible satisfacer la condición necesaria (3), a saber .
En este caso, la condición (3) se reemplaza por la condición (6):
(6)En este caso, según el principio del máximo de Pontryagin, el valor del control óptimo es igual al valor del control en uno de los extremos del rango admisible. Las ecuaciones de Pontryagin se escriben usando la función de Hamilton , definida por la relación . De las ecuaciones se deduce que la función de Hamilton está relacionada con la función de Lagrange de la siguiente manera: . Sustituyendo la última ecuación en las ecuaciones (3–5), obtenemos las condiciones necesarias expresadas en términos de la función de Hamilton:
Las condiciones necesarias escritas de esta forma se llaman ecuaciones de Pontryagin. El principio máximo de Pontryagin se analiza con más detalle en el libro [19] .
EjemploSea necesario para resolver el problema de minimizar el funcional:
, donde , , .La función de Hamilton en este caso tiene la forma:
.De las condiciones 9) y 10) encontramos que:
, .Obtenemos:
.El máximo de esta función con respecto a , , se alcanza en , donde
Por condición, . Medio:
De , obtenemos . A partir de la condición de continuidad en el punto, encontramos la constante .
De este modo:
Se puede comprobar que las encontradas y constituyen la solución óptima de este problema [21]
En su casoEl principio máximo es especialmente importante en los sistemas de control con máxima velocidad y mínimo consumo de energía, donde se utilizan controles tipo relé que toman valores extremos en lugar de intermedios en el intervalo de control permitido.
HistoriaPor el desarrollo de la teoría del control óptimo , L. S. Pontryagin y sus colaboradores V. G. Boltyansky , R. V. Gamkrelidze y E. F. Mishchenko recibieron el Premio Lenin en 1962 .
Método de programación dinámicaEl método de programación dinámica se basa en el principio de optimización de Bellman, que se formula de la siguiente manera: la estrategia de control óptima tiene la propiedad de que cualquiera que sea el estado inicial y el control al comienzo del proceso, los controles posteriores deben constituir la estrategia de control óptima con respecto a el estado obtenido después de la etapa inicial del proceso [22] . El método de programación dinámica se describe con más detalle en el libro [23]
Condiciones suficientes de optimalidadLas condiciones suficientes para la optimización de procesos controlados fueron obtenidas en 1962 por V. F. Krotov , a partir de ellas se construyeron métodos computacionales iterativos de mejora sucesiva, que permitieron encontrar un óptimo global en problemas de control [24] [25] [26] .
En tareas de control óptimo de objetos tales como un horno de calentamiento continuo, un intercambiador de calor , una instalación de revestimiento, una unidad de secado, un reactor químico , una planta de separación de mezclas, un alto horno o de hogar abierto , una batería de horno de coque, un laminador molino , un horno de calentamiento por inducción, etc. El proceso controlado se describe mediante ecuaciones diferenciales parciales, ecuaciones integrales y ecuaciones integro-diferenciales.
La teoría del control óptimo en este caso se ha desarrollado solo para ciertos tipos de estas ecuaciones: tipos elíptico, parabólico e hiperbólico.
En algunos casos simples, es posible obtener un análogo del principio máximo de Pontryagin. [27] [28]
Si las soluciones de los sistemas de ecuaciones tienen inestabilidades, puntos de discontinuidad, puntos de bifurcación, soluciones múltiples, entonces se utilizan varios métodos especiales para obtenerlas [29] .
Problema de control óptimoPara formular el principio del máximo para sistemas con parámetros distribuidos, se introduce la función de Hamilton: , donde las funciones auxiliares deben satisfacer las ecuaciones y condiciones de contorno para , para , .
Si es el control óptimo y son las funciones obtenidas bajo el control óptimo las que satisfacen las ecuaciones , entonces la función , considerada como una función del argumento , alcanza un máximo en la región en , es decir, para casi todos los puntos , la igualdad |
Si el sistema es un sistema lineal de la forma , entonces el teorema
Para un control óptimo en el caso lineal, es necesario y suficiente que se cumpla el principio máximo. |
Ver la demostración de estos dos teoremas en el libro [28] .
En este caso, el objeto o proceso controlado se describe mediante ecuaciones diferenciales estocásticas lineales . En este caso, la solución del problema de control óptimo se realiza en base a la ecuación de Riccati [30] .
diccionarios y enciclopedias | |
---|---|
En catálogos bibliográficos |