Identificación del sistema

La identificación del sistema  es un conjunto de métodos para construir modelos matemáticos de un sistema dinámico basado en datos de observación. Un modelo matemático en este contexto significa una descripción matemática del comportamiento de un sistema o proceso en el dominio de la frecuencia o el tiempo, por ejemplo, procesos físicos (movimiento de un sistema mecánico bajo la acción de la gravedad), un proceso económico (reacción de stock cotizaciones a perturbaciones externas), etc. En la actualidad, esta área de la teoría de control está muy estudiada y es muy utilizada en la práctica.

Historia

El inicio de la identificación de los sistemas como tema de construcción de modelos matemáticos basados ​​en observaciones está asociado al trabajo de Carl Friedrich Gauss "Theoria motus corporum coelestium in sectionibus conicis solem ambientium", en el que utilizó el método de mínimos cuadrados desarrollado por él. para predecir la trayectoria de los planetas. Posteriormente, este método ha encontrado aplicación en muchas otras aplicaciones, incluida la construcción de modelos matemáticos de objetos controlados utilizados en automatización (motores, hornos, varios actuadores). Gran parte del trabajo inicial sobre identificación de sistemas fue realizado por estadísticos, econometristas (especialmente interesados ​​en aplicaciones de identificación relacionadas con series temporales) y formaron un campo llamado estimación estadística. La estimación estadística también se basó en el trabajo de Gauss (1809) y Fisher (1912) [1] .

Hasta aproximadamente los años 50 del siglo XX, la mayoría de los procedimientos de identificación en automatización se basaban en la observación de las reacciones de los objetos controlados en presencia de ciertas acciones de control (la mayoría de las veces acciones de la forma: escalonado ( ), armónico ( ), color generado o ruido blanco ) y dependiendo de qué tipo de información se utilizó sobre el objeto, los métodos de identificación se dividieron en frecuencia y temporal. El problema era que el alcance de estos métodos se limitaba con mayor frecuencia a los sistemas escalares (SISO, Single-input, single-output). En 1960, Rudolf Kalman presentó una descripción de un sistema controlado en forma de espacio de estado, que hizo posible trabajar con sistemas multidimensionales (MIMO, Many-input, many-output) y sentó las bases para un filtrado óptimo y control basado en este tipo de descripción.

Específicamente para problemas de control, los métodos para identificar sistemas se desarrollaron en 1965 en los trabajos de Ho y Kalman [2] , Ostrom y Bolin [3] . Estos trabajos allanaron el camino para el desarrollo de dos métodos de identificación que todavía son populares hoy en día: el método del subespacio y el método del error de predicción. El primero se basa en el uso de proyecciones en el espacio euclidiano, y el segundo en la minimización de un criterio que depende de los parámetros del modelo.

El trabajo de Ho y Kalman está dedicado a encontrar un modelo de espacio de estado del objeto en estudio que tenga el orden más pequeño del vector de estado, basado en información sobre la respuesta al impulso. Este problema, pero ya en presencia de implementaciones de un proceso aleatorio, donde se forma el modelo de Markov , fue resuelto en los años 70 en los trabajos de Forre [4] y Akaika [5] . Estos trabajos sentaron las bases para la creación del método subespacial a principios de la década de 1990.

El trabajo de Åström y Bolin introdujo el método de máxima verosimilitud en la comunidad de identificación, que fue desarrollado por expertos en series temporales para estimar los parámetros del modelo en forma de ecuaciones en diferencias [6] [7] . Estos modelos, que se conocen en la literatura estadística como ARMA (promedio móvil autorregresivo) y ARMAX (promedio móvil autorregresivo con entrada), luego formaron la base para el método de error de predicción. En 1970, Box y Jenkins publicaron un libro [8] que dio un importante impulso a la aplicación de métodos de identificación en todos los ámbitos posibles. Este trabajo proporcionó, en otras palabras, una receta completa para la identificación desde el momento en que comienza a recopilar información sobre el objeto hasta la recepción y verificación del modelo. Durante 15 años, este libro ha sido la fuente de referencia para la identificación del sistema. Un trabajo importante de esa época fue también la revisión [9] sobre identificación de sistemas y análisis de series temporales, publicada en IEEE Transactions on Automatic Control en diciembre de 1974. Una de las cuestiones abiertas entonces era la cuestión de la identificación de sistemas cerrados para los que el método basado en la correlación cruzada conduce a resultados insatisfactorios [10] . Desde mediados de la década de 1970, el método de error de predicción recientemente inventado ha llegado a dominar la teoría y, lo que es más importante, las aplicaciones de identificación. La mayor parte de la actividad investigadora se ha centrado en los problemas de identificación de sistemas multidimensionales y cerrados. La tarea clave para estas dos clases de sistemas era encontrar las condiciones para el experimento y las formas de parametrizar el problema, bajo las cuales el modelo encontrado se aproximaría a la única descripción exacta del sistema real. Se puede decir de toda la actividad de esa época que fue el momento de buscar el "modelo verdadero", resolviendo los problemas de identificabilidad, convergencia a parámetros exactos, eficiencia estadística de las estimaciones y normalidad asintótica de los parámetros estimados. Hacia 1976, se hizo el primer intento de considerar la identificación de sistemas como una teoría de aproximación, en la que el problema es la mejor aproximación posible de un sistema real dentro de una clase dada de modelos [11] [12] , [13] . La opinión predominante entre los especialistas en identificación ha cambiado, pues, de buscar una descripción del verdadero sistema a buscar una descripción de la mejor aproximación posible. También se produjo un avance importante cuando L. Ljung introdujo el concepto de sesgo y error de varianza para estimar las funciones de transferencia de objetos [14] . El trabajo de sesgo y análisis de la varianza de los modelos resultantes durante la década de 1980 llevó a la perspectiva de considerar la identificación como un problema de síntesis. Con base en la comprensión de la influencia de las condiciones experimentales, la estructura del modelo y el criterio de identificación basado en el sesgo y la varianza del error, es posible ajustar estas variables de síntesis al objeto de tal manera que se obtenga el mejor modelo. en esta clase de modelos [15] [16] . El libro de Lennart Ljung [17] , que tiene una gran influencia en la comunidad de especialistas en identificación, está imbuido de esta ideología.

La idea de que la calidad de un modelo podría cambiar mediante la elección de variables de síntesis condujo a un estallido de actividad en la década de 1990 que continúa hasta el día de hoy. La principal aplicación del nuevo paradigma es la identificación para MBC (Control Basado en Modelos). En consecuencia, la identificación para problemas de control ha florecido con una fuerza sin precedentes desde su inicio, y la aplicación de métodos de identificación para el control ha insuflado una segunda vida en áreas de investigación ya conocidas como diseño de experimentos, identificación de circuito cerrado, identificación de frecuencia, control robusto en la presencia de la incertidumbre.

Identificación de sistemas en la URSS y Rusia

El evento principal en el desarrollo de la identificación de sistemas en la URSS fue la apertura en 1968 del Laboratorio No. 41 ("Identificación de Sistemas de Control") en el Instituto de Automatización y Telemecánica (ahora el Instituto de Problemas de Control de la Academia Rusa de Ciencias) con la asistencia de N. S. Raibman. Naum Semenovich Raibman fue uno de los primeros en el país en darse cuenta de los beneficios prácticos y el interés teórico de la identificación de sistemas. Desarrolló la teoría de la identificación por dispersión para la identificación de sistemas no lineales [18] y también escribió un libro llamado "¿Qué es la identificación?" [19] para explicar los principios básicos del nuevo tema y describir la gama de tareas resueltas por la identificación del sistema. También posteriormente, Yakov Zalmanovich Tsypkin , quien desarrolló la teoría de la identificación de la información, se interesó en la teoría de la identificación [20]

Enfoque general

Construir un modelo matemático requiere 5 cosas básicas:

La información de entrada y salida generalmente se registra durante un experimento de identificación planificado previamente, durante el cual el investigador puede elegir qué señales medir, cuándo medirlas y qué señales de entrada usar. La disciplina "Diseño de experimentos" puede sugerir cómo hacer que la información experimental sea la más informativa, teniendo en cuenta las restricciones que se le pueden imponer al experimento. Pero, lamentablemente, no es rara la situación cuando el investigador no tiene la oportunidad de realizar un experimento, sino que trabaja con la información que se le proporciona. El conjunto de modelos candidatos se obtiene a partir de la decisión sobre la clase de modelos en los que se realizará la búsqueda. Sin duda, esta elección es la más importante y la más difícil en el proceso de identificación. Es en esta etapa que toda la información a priori, la intuición de la ingeniería, debe combinarse con las propiedades formales de los modelos probables para tomar una decisión. Además, muchos modelos propuestos se pueden construir sobre la base de leyes físicas conocidas, o es posible utilizar modelos lineales estándar sin depender de la física. Dichos modelos, construidos no sobre la base de leyes físicas conocidas y que tienen parámetros, al cambiarlos es posible lograr una aproximación al objeto en estudio, se denominan modelos de caja negra. Los modelos que tienen parámetros ajustables y se basan en leyes físicas conocidas se denominan cajas grises. En términos generales, la estructura del modelo es un mapeo parametrizado desde el conjunto de entradas y salidas hasta el conjunto de salidas del tiempo actual incluido : El criterio para elegir un modelo es su capacidad para repetir los datos obtenidos del experimento, es decir, para que coincida con el comportamiento del objeto en estudio. Pero debe recordarse que el modelo nunca puede aceptarse como una descripción "real" o "verdadera" de un objeto debido a su aproximación innata.

El procedimiento de identificación como sistema cerrado

El procedimiento de identificación tiene un orden lógico natural: primero recopilamos datos, luego formamos un conjunto de modelos y luego elegimos el mejor modelo. Es común que el primer modelo elegido falle la prueba de conformidad con los datos experimentales. Luego debe volver atrás y seleccionar otro modelo o cambiar el criterio de búsqueda. El modelo puede ser insatisfactorio por las siguientes razones:

Enfoques para la identificación

Durante la identificación se supone un estudio experimental y comparación de los procesos de entrada y salida, y la tarea de identificación consiste en elegir un modelo matemático apropiado. El modelo debe ser tal que su reacción y la reacción del objeto a la misma señal de entrada deben ser, en cierto sentido, cercanas. Los resultados de la resolución del problema de identificación son los datos iniciales para el diseño de sistemas de control, optimización, análisis de parámetros del sistema, etc.

Actualmente, los siguientes métodos se utilizan para determinar las propiedades dinámicas de los objetos regulados:

  1. Métodos basados ​​en el impacto artificial sobre el sistema de una señal no periódica, cuya potencia es grande en comparación con el nivel de interferencia en el sistema. Como acción se suele optar por un cambio brusco en la acción de control, y como resultado se determinan características temporales.
  2. Métodos basados ​​en el impacto artificial en el sistema de señales periódicas de diferentes frecuencias, cuya amplitud es grande en comparación con el nivel de interferencia en el sistema. Como resultado, se determinan las características de frecuencia.
  3. Métodos basados ​​en el impacto artificial sobre el sistema mediante señales sinusoidales proporcionales al ruido del sistema. Como resultado, también se determinan las características de frecuencia.
  4. Métodos que no requieren influencias artificiales, utilizando perturbaciones que están presentes durante la operación normal. [23]

Los modelos matemáticos estáticos de sistemas se obtienen de tres formas: experimental-estadística, determinista y mixta.

Los métodos estadísticos experimentales requieren experimentos activos o pasivos en el objeto operativo. Los modelos estocásticos se utilizan para resolver diversos problemas relacionados con la investigación y el control de procesos. En la mayoría de los casos, estos modelos se obtienen en forma de ecuaciones de regresión lineal.

Con base en las propiedades de los procesos reales, se puede argumentar que las ecuaciones para la relación de las variables del proceso deberían tener una estructura diferente, posiblemente más compleja. Cuanto más "lejos" esté la estructura de las ecuaciones de regresión de la "verdad", menor será la precisión del pronóstico con un aumento en el rango de cambios en las variables del proceso. Esto degrada la calidad del control y, en consecuencia, reduce la calidad del funcionamiento del objeto en el modo óptimo.

Los modelos deterministas están "basados ​​en leyes físicas e ideas sobre procesos". Por lo tanto, se pueden obtener en la etapa de diseño del proceso. En la actualidad, sobre la base de un enfoque determinista, se han desarrollado varios métodos para construir modelos matemáticos de procesos continuos. Entonces, por ejemplo, en el modelado matemático de una serie de procesos en tecnología química, se utiliza el método del espacio de fase multidimensional. La esencia del método radica en el hecho de que el flujo del proceso tecnológico simulado se considera como el movimiento de algunos "puntos de representación" en un espacio de fase multidimensional. Este espacio se define como el espacio del sistema de coordenadas cartesianas, a lo largo de cuyos ejes se trazan las coordenadas espaciales del aparato y las coordenadas internas de las partículas sólidas que reaccionan. Cada punto en el espacio de fase multidimensional describe un cierto estado del proceso simulado. El número de estos puntos es igual al número de partículas en el aparato. El flujo del proceso tecnológico se caracteriza por un cambio en el flujo de los puntos representativos.

El método de espacio de fase multidimensional es el más utilizado para construir modelos matemáticos. Sin embargo, este método también tiene desventajas que limitan su alcance:

Por lo tanto, debido a las características anteriores del método de espacio de fase multidimensional, es muy difícil usarlo para construir modelos matemáticos de procesos tecnológicos basados ​​en información obtenida sin realizar experimentos en instalaciones industriales.

Como regla general, como resultado del análisis teórico del proceso, es posible obtener un modelo matemático, cuyos parámetros deben refinarse en el proceso de control de un objeto tecnológico. En la fig. 1 muestra un esquema general para resolver problemas de identificación.

A pesar del gran número de publicaciones sobre la identificación paramétrica de objetos dinámicos, no se presta suficiente atención a la identificación de parámetros no estacionarios. Cuando se consideran enfoques conocidos para la identificación paramétrica no estacionaria, se pueden distinguir dos grupos [1] .

El primer grupo incluye trabajos que hacen un uso significativo de información a priori sobre los parámetros identificados. El primer enfoque de este grupo se basa en la hipótesis de que los parámetros identificados son soluciones de sistemas homogéneos conocidos de ecuaciones en diferencias o se representan como un proceso aleatorio generado por un modelo de Markov, es decir, son soluciones de sistemas conocidos de ecuaciones diferenciales o en diferencias. con perturbaciones de tipo ruido blanco, caracterizadas por una distribución gaussiana, de media e intensidad conocidas. Este enfoque se justifica en presencia de una gran cantidad de información a priori sobre los parámetros deseados y, si los parámetros reales del modelo adoptado no coinciden, conduce a una pérdida de convergencia del algoritmo.

El segundo enfoque, perteneciente al primer grupo, se basa en la parametrización de parámetros no estacionarios y utiliza la hipótesis de la posibilidad de representar con precisión parámetros identificables no estacionarios en todo el intervalo de identificación o subintervalos individuales en forma de un combinación lineal finita, por regla general, de funciones de tiempo conocidas con coeficientes de peso constante desconocidos, en particular en forma de una suma finita de términos de la serie de Taylor , la serie armónica de Fourier , la serie de Fourier generalizada con respecto a los sistemas de ortogonales funciones Laguerre , Walsh .

El caso más simple de parametrización es la representación de parámetros no estacionarios por valores constantes en una secuencia de subintervalos individuales que cubren el intervalo de identificación.

Con la identificación actual, se recomienda pasar a un intervalo de tiempo móvil [ t  -  T, t ] de duración T y considerar los parámetros requeridos constantes en este intervalo o representables exactamente como un polinomio de interpolación de grado finito, o un polinomio lineal finito especificado. combinación. Este enfoque puede incluir trabajos basados ​​en el uso del método iterativo de mínimos cuadrados. En estos trabajos, debido al uso de un factor de peso exponencial (con exponente negativo) en la funcional cuadrática a minimizar, definida en el intervalo de tiempo actual [0,  t ] , se “borra” la información antigua sobre las coordenadas del objeto tiempo extraordinario. Esta situación, en esencia, corresponde a la idea de la constancia de los parámetros identificados en un determinado intervalo de tiempo deslizante, teniendo en cuenta la información sobre el estado del objeto en este intervalo con un peso exponencial.

Este enfoque permite extender directamente los métodos para identificar parámetros estacionarios al caso de identificar parámetros no estacionarios. Sin embargo, en la práctica, la hipótesis fundamental de este enfoque no se cumple, y solo se puede hablar de una representación aproximada (aproximación) de los parámetros deseados por una combinación lineal finita de funciones de tiempo conocidas con coeficientes de peso constante desconocidos. Esta situación conduce a la aparición de un error de identificación metodológica, que cambia fundamentalmente la esencia del enfoque en discusión, ya que en este caso la duración T del intervalo de aproximación y el número de términos de la combinación lineal se convierten en parámetros de regularización. Este error metodológico, por regla general, no se tiene en cuenta. En particular, bajo el supuesto de una ley rectilínea de cambio en los parámetros deseados sobre grandes subintervalos Ttiempode

El segundo grupo incluye métodos que usan una cantidad mucho menor de información sobre los parámetros deseados, y esta información se usa solo en la etapa de elección de los parámetros del algoritmo de identificación.

El primer enfoque perteneciente a este grupo se basa en el uso de modelos autoajustables de gradiente. Tal enfoque se discutió en trabajos sobre la identificación paramétrica de objetos dinámicos lineales y no lineales. La principal ventaja de este enfoque es que conduce a un sistema de identificación cerrado y, por lo tanto, tiene ciertas ventajas en términos de inmunidad al ruido en comparación con los métodos de identificación abiertos. Las desventajas de este enfoque están relacionadas con la necesidad de medir los componentes de gradiente del criterio de sintonía, que son derivados funcionales, el requisito de información a priori suficientemente precisa sobre los valores iniciales de los parámetros identificados (para seleccionar los valores iniciales). ​de los parámetros del modelo que garantizan la estabilidad del sistema de identificación) y la falta de un análisis teórico completo de la dinámica del sistema de identificación de un determinado tipo. Esto último se explica por la complejidad del sistema de ecuaciones integro-diferenciales que describen los procesos en el bucle de autoajuste, como resultado de lo cual el análisis teórico se lleva a cabo solo bajo el supuesto de un cambio lento en los parámetros del objeto. y modelo En este sentido, no es posible evaluar completamente el área de estabilidad, la velocidad y la precisión de la operación de los modelos autoajustables de gradiente, y por lo tanto determinar claramente el área de aplicabilidad de los sistemas de este tipo con la identificación actual de no- parámetros estacionarios. Sin embargo, debe tenerse en cuenta que con un aumento en el grado de no estacionariedad de los parámetros deseados, los errores metodológicos en la determinación de los componentes del gradiente del criterio de sintonía aumentan significativamente, como resultado de lo cual el error de identificación aumenta más allá de la zona de el extremo global del criterio siendo minimizado.

Este efecto se potencia especialmente con un aumento en el número de parámetros identificados debido a la interconexión de canales de identificación. Por lo tanto, el uso de modelos autoajustables de gradiente se limita fundamentalmente al caso de un cambio lento en los parámetros deseados.

El segundo enfoque se basa en el uso del algoritmo Kaczmarz. Se sabe que el algoritmo principal de este tipo tiene poca inmunidad al ruido y baja velocidad. Esta situación impulsó la creación de varias modificaciones de este algoritmo, caracterizadas por una mayor velocidad. Sin embargo, el desempeño de estas modificaciones es todavía bajo, lo que a priori limita el alcance de la aplicabilidad del segundo enfoque al caso de identificar parámetros que cambian lentamente.

El segundo grupo también puede incluir métodos diseñados para identificar solo objetos dinámicos lineales y se caracterizan por restricciones adicionales (la necesidad de usar señales de entrada de prueba en forma de un conjunto de armónicos o una señal binaria periódica pseudoaleatoria, la finitud de la identificación intervalo, la disponibilidad de información completa sobre las señales de entrada y salida del objeto en todo el intervalo de identificación y la posibilidad de identificar los coeficientes de solo el lado izquierdo de la ecuación diferencial). Debido a esto, es posible que se produzcan errores de identificación significativos en subintervalos de tiempo finitos individuales, y también es necesario resolver un problema complejo de valor límite.

En automatización, las señales de entrada de prueba típicas son:

Una serie de métodos (representación de parámetros en forma de soluciones de sistemas conocidos de ecuaciones diferenciales o en diferencias) se pueden usar solo en casos particulares, mientras que otros métodos (modelos de gradiente autoajustables, el algoritmo de Kachmarz) se caracterizan a priori por importantes restricciones en el grado de no estacionariedad de los parámetros deseados. Las deficiencias señaladas son generadas por la propia naturaleza de los métodos mencionados y, por lo tanto, apenas hay posibilidad de una reducción notable de estas deficiencias. Los métodos basados ​​en la parametrización de parámetros no estacionarios, como se señaló anteriormente, están completamente inexplorados y, en la forma presentada, pueden encontrar una aplicación práctica limitada. Sin embargo, a diferencia de otros métodos, este último enfoque no contiene restricciones internas sobre el grado de no estacionariedad de los parámetros identificados y es fundamentalmente aplicable para la identificación de una amplia clase de objetos dinámicos en el modo de su operación normal durante largos intervalos de tiempo. .

Las dificultades enumeradas para identificar sistemas reales en funcionamiento determinan el enfoque más utilizado para modelar objetos no lineales, que consiste en elegir el tipo de modelo matemático en forma de ecuación evolutiva y la posterior identificación de parámetros, o identificación no paramétrica del modelo. El modelo se considera adecuado si la estimación del criterio de adecuación dado, calculado como la dependencia del modelo residual de los datos experimentales, está dentro de límites aceptables.

Nota

  1. RA Fisher.   Sobre un criterio absoluto para el ajuste de curvas de frecuencia. - Ciencias Estadísticas, Vol. 12, No. 1 (febrero de 1997). - págs. 39-41. 
  2. BL Ho y RE Kalman.   Construcción efectiva de modelos lineales de variables de estado a partir de funciones de entrada-salida. - Regelungstechnik, volumen 12, 1965. - págs. 545-548. 
  3. KJ Astrom y T. Bohlin.   Identificación numérica de sistemas dinámicos lineales a partir de registros operativos normales. — Proc. Simposio de la IFAC Sistema autoadaptativo, 1965. - pp. 96-111. 
  4. P. Faurre,   Realizations markoviennes de processus stationnaires. — Rapport La-boria No.13, IRIA, Rocquencourt, Francia, Tech. Reps. 1973. 
  5. H. Akaike,   Teoría estocástica de la realización mínima. — Trans. IEEE. aparato mecánico. Control, vol. 26, págs. 667-673, dic. 1974. 
  6. TC Koopmans, H. Rubin y RB Leipnik,   Midiendo los sistemas de ecuaciones de la economía dinámica. — (Monografía de la Comisión Cowles, vol. 10, TCKoopmans, Ed.). Nueva York: Wiley, 1950. 
  7. EJ Hannan,   Análisis de series temporales.—Nueva York: Methuen, 1960  
  8. GEP Box y GM Jenkins   Time Series Analysis, Forecasting and Control. — Oakland, CA: Holden-Day, 1970. 
  9. KJ Astrom y P. Eykhoff   Identificación del sistema: una encuesta. Automática, vol. 7, págs. 123-162, 1971. 
  10. H. Akaike   Algunos problemas en la aplicación del método espectral cruzado, - en Spectral Analysis of Time Series, B. Harris, Ed. Nueva York: Wiley, 1967, págs. 81-107.  
  11. L. Ljung   Sobre consistencia e identificabilidad, Math. programa. Estudio, vol. 5, págs. 169-190, 1976.  
  12. BDO Anderson, JB Moore y RMHawkes,   Aproximación del modelo a través de la identificación de errores de predicción, - Automatica, vol. 14, págs. 615-622, 1978. 
  13. L. Ljung y P. E. Caines, Normalidad   asintótica de los estimadores de errores de predicción para modelos de sistemas aproximados, - Stochastics, vol. 3, págs. 29-46, 1979. 
  14. L. Ljung,   Expresiones de varianza asintótica para modelos de función de transferencia de caja negra identificados, "IEEE Trans. Automat. Contr., vol. AC-30, pp.834-844, 1985.  
  15. B. Wahlberg y L. Ljung   Diseño de variables para la distribución de sesgo en la estimación de la función de transferencia, IEEE Trans. aparato mecánico. Contr., vol. AC-31, págs. 134-144, 1986. 
  16. M. Gevers y L. Ljung,   Diseños de experimentos óptimos con respecto a la aplicación del modelo previsto, Automatica, vol. 22, págs. 543-554, 1986. 
  17. L. Ljung,   Identificación del sistema Teoría para el usuario, 2ª ed. - Nueva Jersey: PTR Prentice Hall, 1999. - ISBN 0-13-656695-2  
  18. N. S. Raibman,   Identificación de dispersión, - Moscú: Nauka, 1981.  
  19. N. S. Reibman,   ¿Qué es la identificación?. - Moscú: Nauka, 1970. 
  20. Ya. Z. Tsypkin,   Teoría de la información de la identificación, M., Nauka, 1995, 336 p.  
  21. Rastrigina, 1977 , pág. 17
  22. Rastrigina, 1977 , pág. 33.
  23. Shidlovsky S.V. Automatización de procesos tecnológicos y producción: Libro de texto. -Tomsk: Editorial NTL, 2005. -p. once
  24. AV Andryushin, V.R. Sabanin, N.I. Smirnov. Gestión e innovación en ingeniería térmica. - M: MPEI, 2011. - S. 15. - 392 p. - ISBN 978-5-38300539-2 .

Literatura