Planificación de experimentos

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 16 de febrero de 2022; las comprobaciones requieren 8 ediciones .

El diseño experimental ( ing.  técnicas de diseño experimental ) es un procedimiento para elegir el número de experimentos y las condiciones para su implementación, necesarios para resolver el problema con la precisión requerida. [1] El objetivo principal de la planificación de experimentos es lograr la máxima precisión de medición con un número mínimo de experimentos y mantener la fiabilidad estadística de los resultados.

La planificación de experimentos se utiliza en la búsqueda de condiciones óptimas , la construcción de fórmulas de interpolación, la elección de factores significativos, la evaluación y refinamiento de las constantes de los modelos teóricos, etc.

Historia

El diseño experimental surgió en la primera mitad del siglo XX a partir de la necesidad de eliminar o al menos reducir el sesgo en la investigación agrícola al aleatorizar las condiciones experimentales. El procedimiento de planificación resultó estar dirigido no solo a reducir la varianza de los parámetros estimados, sino también a la aleatorización con respecto a variables concomitantes, espontáneamente cambiantes y no controladas. Como resultado, logramos deshacernos del sesgo en las estimaciones.

A partir de 1918, R. Fisher inició su serie de trabajos en la estación agrobiológica de Rochemsted ( ing. ) en Inglaterra. En 1935 apareció su monografía "Diseño de Experimentos", que dio nombre a toda la dirección. En 1942, A. Kishen revisó el diseño del experimento de los cubos latinos, que fue un desarrollo posterior de la teoría de los cuadrados latinos . Luego, R. Fischer publicó de forma independiente información sobre cubos hiper-greco-latinos ortogonales e hiper-cubos. Poco después, en 1946, R. Rao consideró sus propiedades combinatorias. Los trabajos de H. Mann (1947-1950) están dedicados al desarrollo posterior de la teoría de los cuadrados latinos.

El primer estudio matemático profundo del diagrama de flujo fue realizado por R. Bowes ( Ing. ) en 1939. Inicialmente, se desarrolló la teoría de los planes de bloques incompletos balanceados (esquemas BIB). Luego, R. Bose, K. Ner y R. Rao generalizaron estos planes y desarrollaron la teoría de los planes de bloques incompletos parcialmente balanceados (esquemas PBIB). Desde entonces, se ha prestado mucha atención al estudio de los diagramas de flujo, tanto por planificadores experimentales ( F. Yeats , G. Cox, V. Cochran ( inglés ), W. Federer, K. Gulden, O. Kempthorn y otros), como y de especialistas en análisis combinatorio (R. Bose, F. Shimamoto, V. Klatsworthy, S. Srikhande ( inglés ), A. Hoffman, y otros).

La investigación de R. Fisher marca el comienzo de la primera etapa en el desarrollo de métodos de planificación de experimentos. Fisher desarrolló el método de planificación factorial. Yeats propuso un esquema computacional simple para este método. La planificación factorial se ha generalizado. Una característica de un experimento factorial es la necesidad de configurar una gran cantidad de experimentos a la vez.

En 1945, D. Finney introdujo réplicas fraccionarias de un experimento factorial. Esto permitió reducir el número de experimentos y abrió el camino para las aplicaciones de planificación técnica. Otra posibilidad de reducir el número requerido de experimentos fue mostrada en 1946 por R. Plakett y D. Berman, quienes introdujeron diseños factoriales ricos.

G. Hotelling en 1941 sugirió encontrar un extremo a partir de datos experimentales utilizando expansiones de potencia y un gradiente. El siguiente paso importante fue la introducción del principio de la experimentación secuencial paso a paso. Este principio, expresado en 1947 por M. Friedman y L. Savage , hizo posible extender la definición experimental del extremum - iteración.

Para construir una teoría moderna de planificación de experimentos, faltaba un eslabón: la formalización del objeto de estudio. Este enlace apareció en 1947, después de que N. Wiener creara la teoría de la cibernética . El concepto cibernético de "caja negra" juega un papel importante en la planificación.

En 1951, el trabajo de los científicos estadounidenses J. Box y C. Wilson inició una nueva etapa en el desarrollo de la planificación de experimentos. Formuló y llevó a recomendaciones prácticas la idea de una determinación experimental consistente de las condiciones óptimas para la realización de procesos utilizando la estimación de los coeficientes de expansiones de potencia por el método de mínimos cuadrados , moviéndose a lo largo de un gradiente y encontrando un polinomio de interpolación en la región. del extremo de la función de respuesta (región casi estacionaria).

En 1954-1955. J. Box y luego P. Yule demostraron que el diseño de un experimento puede utilizarse en el estudio de procesos físicos y químicos, si se plantean a priori una o varias hipótesis posibles . La dirección se desarrolló en los trabajos de N. P. Klepikov, S. N. Sokolov y V. V. Fedorov en física nuclear .

La tercera etapa en el desarrollo de la teoría del diseño experimental comenzó en 1957, cuando Box aplicó su método a la industria. Este método llegó a denominarse " planificación evolutiva ". En 1958, G. Scheffe ( ing. ) propuso un nuevo método para diseñar un experimento para estudiar diagramas de composición fisicoquímica, una propiedad llamada " retícula simplex ".

El desarrollo de la teoría de la planificación experimental en la URSS se refleja en los trabajos de VV Nalimov , Yu. P. Adler , Yu. V. Granovsky , EV Markova y VB Tikhomirov .

Etapas de la planificación de un experimento

Los métodos de planificación de experimentos permiten minimizar la cantidad de pruebas necesarias, estableciendo un procedimiento y condiciones racionales para realizar investigaciones, según su tipo y la precisión requerida de los resultados. Si, por alguna razón, el número de pruebas ya es limitado, entonces los métodos dan una estimación de la precisión con la que se obtendrán los resultados en este caso. Los métodos tienen en cuenta la naturaleza aleatoria de la dispersión de las propiedades de los objetos probados y las características del equipo utilizado. Se basan en los métodos de la teoría de la probabilidad y la estadística matemática .

La planificación de un experimento implica una serie de pasos.

  1. Establecer la finalidad del experimento (determinación de características, propiedades, etc.) y su tipo (definitivo, control, comparativo, investigación).
  2. Aclaración de las condiciones para el experimento (equipo disponible o accesible, condiciones de trabajo, recursos financieros, número y dotación de personal, etc.). Selección del tipo de ensayos (normales, acelerados, reducidos en condiciones de laboratorio, en stand , de campo , a gran escala u operativos).
  3. Elección de parámetros de entrada y salida . Los parámetros de entrada (factores) pueden ser deterministas, es decir, registrados y controlados (según el observador), y aleatorios, es decir, registrados, pero no administrados. Junto a ellos, el estado del objeto en estudio puede verse influenciado por parámetros no registrados y no controlados que introducen un error sistemático o aleatorio en los resultados de la medición. Estos son errores en el equipo de medición , cambios en las propiedades del objeto en estudio durante el experimento, por ejemplo, debido al envejecimiento del material o su desgaste, exposición del personal, etc.
  4. Elección del modelo matemático , con la ayuda de la cual se presentarán datos experimentales;
  5. Establecimiento de la precisión requerida de los resultados de medición (parámetros de salida), áreas de posible cambio en los parámetros de entrada, aclaración de los tipos de impactos. El tipo de muestras u objetos objeto de estudio se selecciona teniendo en cuenta el grado de su conformidad con el producto real en términos de estado, dispositivo, forma, tamaño y otras características. El propósito del grado de precisión está influenciado por las condiciones de fabricación y operación del objeto, cuya creación utilizará estos datos experimentales. Las condiciones de fabricación, es decir, las posibilidades de fabricación, limitan la máxima precisión alcanzable de forma realista. Las condiciones de operación, es decir, las condiciones para garantizar el funcionamiento normal del objeto, determinan los requisitos mínimos de precisión.Para una serie de casos (con una pequeña cantidad de factores y una ley conocida de su distribución), es posible calcular de antemano el número mínimo requerido de pruebas, lo que permitirá obtener resultados con la precisión requerida.
  6. La elección del criterio de optimización, el plan del experimento, la definición del método de análisis de datos; realizar un experimento  : el número y el orden de las pruebas, el método de recopilación, almacenamiento y documentación de datos. El orden de las pruebas es importante si los parámetros de entrada (factores) en el estudio del mismo objeto durante un experimento toman valores diferentes. Por ejemplo, cuando se prueba la fatiga con un cambio de paso en el nivel de carga, el límite de resistencia depende de la secuencia de carga, ya que la acumulación de daños procede de manera diferente y, en consecuencia, habrá un valor diferente del límite de resistencia. En algunos casos, cuando los parámetros sistemáticos son difíciles de tener en cuenta y controlar, se convierten en aleatorios , proporcionando específicamente un orden aleatorio de prueba (aleatorización del experimento). Esto permite aplicar los métodos de la teoría matemática de la estadística al análisis de los resultados. El orden de las pruebas también es importante en el proceso de investigación exploratoria: dependiendo de la secuencia de acciones elegida en la búsqueda experimental de la proporción óptima de los parámetros de un objeto o algún proceso, se pueden requerir más o menos experimentos. Estos problemas experimentales son similares a los problemas matemáticos de búsqueda numérica de soluciones óptimas. Los métodos mejor desarrollados son las búsquedas unidimensionales (problemas de un factor y un criterio), como el método de Fibonacci, el método de la sección áurea .
  7. Comprobación de los requisitos estadísticos de los datos obtenidos, construcción de un modelo matemático del comportamiento de las características estudiadas.La necesidad de procesamiento se debe a que se requiere un análisis selectivo de datos individuales, desconectados del resto de resultados, o de sus el procesamiento incorrecto no solo puede reducir el valor de las recomendaciones prácticas, sino también conducir a conclusiones erróneas. El procesamiento de los resultados incluye: determinación del intervalo de confianza del valor medio y la varianza (o desviación estándar) de los valores de los parámetros de salida (datos experimentales) para una confiabilidad estadística dada; verificar la ausencia de valores erróneos (outliers), para excluir resultados cuestionables de análisis posteriores. Se lleva a cabo para el cumplimiento de uno de los criterios especiales, cuya elección depende de la ley de distribución de la variable aleatoria y el tipo de valor atípico; comprobar la conformidad de los datos experimentales con la ley de distribución introducida anteriormente. En función de esto, se confirma el plan experimental elegido y los métodos para procesar los resultados, y se especifica la elección del modelo matemático. La construcción de modelos se realiza en los casos en que se deben obtener las características cuantitativas de los parámetros de entrada y salida interrelacionados en estudio. Estos son problemas de aproximación, es decir, la elección de una dependencia matemática que mejor se adapte a los datos experimentales. Para estos efectos , se utilizan modelos de regresión , que se basan en la expansión de la función deseada en una serie con la retención de uno (dependencia lineal, línea de regresión) o varios (dependencias no lineales) miembros de expansión (series de Fourier, Taylor) . Uno de los métodos para ajustar la línea de regresión es el método de mínimos cuadrados ampliamente utilizado. Para evaluar el grado de interrelación de los factores o parámetros de salida, se lleva a cabo un análisis de correlación de los resultados de las pruebas. Como medida de interconexión, se utiliza el coeficiente de correlación: para variables aleatorias independientes o no linealmente dependientes, es igual o cercano a cero, y su proximidad a la unidad indica la interconexión completa de las variables y la presencia de una relación lineal. entre ellos. Al procesar o utilizar datos experimentales presentados en forma tabular, existe la necesidad de obtener valores intermedios. Para ello, se utilizan los métodos de interpolación lineal y no lineal (polinomio) (determinación de valores intermedios) y extrapolación (determinación de valores que se encuentran fuera del intervalo de cambio de datos).
  8. Explicación de los resultados obtenidos y formulación de recomendaciones. La reducción de la intensidad del trabajo y la reducción del tiempo de prueba se logra mediante el uso de complejos experimentales automatizados. Dicho complejo incluye bancos de prueba con configuración automática de modos (le permite simular modos de funcionamiento reales), procesa automáticamente los resultados, realiza análisis estadísticos y documenta la investigación. Pero la responsabilidad del ingeniero en estos estudios también es grande: los objetivos de prueba claramente definidos y una decisión correcta le permiten encontrar con precisión el punto débil del producto, reducir el costo de ajuste y la iteración del proceso de diseño.

Véase también

Notas

  1. Introducción al diseño de experimentos. Universidad Técnica Estatal de Tambov. . Consultado el 14 de mayo de 2022. Archivado desde el original el 26 de febrero de 2020.

Literatura