Métodos numéricos

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 14 de enero de 2022; las comprobaciones requieren 2 ediciones .

Métodos numéricos (computacionales)  : métodos para resolver problemas matemáticos en forma numérica [1] .

Representación tanto de los datos iniciales del problema como de su solución, en forma de número o conjunto de números .

Muchos métodos numéricos forman parte de las bibliotecas de programas matemáticos [2] . En el sistema de formación los ingenieros de especialidades técnicas son un componente importante.

Los fundamentos de los métodos computacionales son:

Metodología

Todos los problemas de matemática computacional se resuelven en la siguiente secuencia [3] :

  1. El problema matemático original se reemplaza por otro problema: un algoritmo computacional. Los requisitos principales para el algoritmo computacional son: alta precisión , estabilidad y eficiencia. Al cambiar a un modelo discreto aparece un error de aproximación , y al implementar cálculos aparece un error de redondeo , por lo tanto, para algoritmos computacionales reales se realiza un análisis de los errores y estabilidad del algoritmo computacional [2] . En la ciencia moderna, para resolver problemas de matemática aplicada , se formula un modelo matemático en términos de ecuaciones diferenciales e integrales de funciones de un argumento continuo . El paso de un modelo matemático continuo a uno discreto se realiza reemplazando funciones de un argumento continuo por funciones de un argumento discreto . En las ecuaciones de diferencias finitas resultantes , la integral y la derivada están representadas por una suma finita y una relación de diferencias, respectivamente [2] . El modelo resultante es un sistema de ecuaciones algebraicas , para cuya solución se compila un algoritmo computacional con cierta precisión , que se implementa en computadoras [2] [4] . Al resolver sistemas grandes, es necesario calcular los valores propios y los vectores de matrices , para reducir los sistemas de ecuaciones no lineales a sistemas lineales. Para algunos problemas ( física neuronal, física de plasma , economía ), el modelo se construye directamente sobre una muestra estadística o sobre objetos grandes. Además, se construyen sistemas irregulares para los que se combinan métodos numéricos con la teoría de grafos . Una clase separada está representada por problemas mal planteados [2] .
  2. El algoritmo computacional contiene el parámetro , que no está presente en el problema original;
  3. Al elegir este parámetro, se puede lograr cualquier aproximación de la solución del segundo problema a la solución del primero. Se han desarrollado varios métodos numéricos de solución para muchas clases importantes de problemas. Según el método de discretización, los métodos numéricos se dividen en métodos de proyección y de diferencias finitas, según el método de solución, en directos e iterativos. En los métodos de diferencias finitas, la tarea es determinar los valores de una función en un conjunto discreto de puntos, mientras que en los métodos de proyección, una función se representa mediante una combinación lineal de elementos. En este caso, una función discreta también se puede considerar como una combinación lineal de polinomios. Los métodos de solución directa tienen una estabilidad débil, mientras que los métodos iterativos son más estables y proporcionan una convergencia rápida [2] .
  4. La implementación imprecisa del algoritmo, causada por el redondeo en los cálculos, no cambia significativamente sus propiedades. Debe recordarse que la computadora realiza solo cuatro operaciones aritméticas básicas [5] . La precisión de la solución en este caso debería ser algo mayor que la precisión esperada de un experimento físico [6] . Al determinar los criterios y condiciones para el crecimiento del error, el error de redondeo no se tuvo en cuenta durante mucho tiempo. La necesidad de estimaciones garantizadas de la precisión de los cálculos reales condujo al surgimiento del análisis de intervalos . Un algoritmo óptimo es un algoritmo con un error mínimo o con un número mínimo de operaciones para un error dado. Al mismo tiempo, se está desarrollando la teoría de los algoritmos computacionales paralelos [2] .

Aparato matemático

Simbólicamente, el problema de buscar una cantidad desconocida se escribe como . Para buscar en matemática computacional se utilizan una o más sustituciones de espacios en los que se definen las cantidades , o funciones para hacer más convenientes los cálculos. El nuevo problema resultante debe tener una solución cercana a la solución del problema original. Por ejemplo, al calcular la integral , una función continua en un segmento siempre se puede reemplazar por un polinomio , para el cual la integral se determina fácilmente; o reemplaza la integral con una suma finita y resuelve el problema resultante. Para llevar a cabo tal reemplazo, es necesario encontrar un conjunto finito de elementos que se aproximen bien al espacio principal. La última condición impone restricciones en el espacio métrico . La principal limitación es la presencia de una red, a partir de la cual el espacio es compacto en sí mismo y separable . Sin embargo, esta restricción no es obligatoria. Los métodos modernos de análisis funcional permiten elegir los espacios métricos más adecuados para las condiciones del problema [7] .

Cuando se utilizan métodos numéricos, surgen varios tipos de errores. Cuando un número es aproximado por otro, se produce un error de redondeo, el error asociado a datos iniciales inexactos se denomina fatal, además, por la sustitución del problema original por uno aproximado, se produce un error en el método. El error total en este caso es la suma del error del método y el error de los cálculos, en otras palabras, en lugar de la ecuación, se resuelve la ecuación , cuya precisión de solución está determinada por la fórmula [8]

Para determinar la magnitud del error se utilizan los conceptos de error absoluto y relativo , así como el límite de error absoluto y relativo, mientras que la teoría de errores determina el cambio en la magnitud de los errores durante diversas operaciones aritméticas [9] . Junto con los métodos para evaluar con precisión los errores, como resultado de lo cual se determinan los valores marginales de los errores, los métodos estadísticos se utilizan para determinar la posibilidad de lograr errores individuales [10] y también tienen en cuenta las características matemáticas de los errores aleatorios. asociado con la desviación de las condiciones experimentales especificadas, cuando varios resultados de medición la cantidad física está determinada por su valor aproximado [11] .

Maneras básicas de aproximar funciones

Interpolación

Para obtener el valor de la función dada por la tabla de valores, se construye una función aproximada sobre los valores intermedios del argumento , que en puntos dados , que se denominan nodos de interpolación, toma los valores , y en otros puntos pertenece al dominio de la función. Muy a menudo, una función aproximada se construye como un polinomio algebraico que incluye los primeros elementos de un sistema linealmente independiente. En la práctica, como elementos de un sistema linealmente independiente, una secuencia de potencias : , funciones trigonométricas : , funciones exponenciales : [12] .

Para construir una función de interpolación en este caso, es necesario resolver un sistema de ecuaciones con incógnitas. Se imponen ciertas condiciones a la matriz resultante del sistema: el rango de la matriz debe ser igual a , y  — para garantizar la condición de independencia lineal ,  — para que la solución del problema no sea ambigua, el determinante de la matriz  — entonces que existe una solución y, además, única [13] . La construcción del polinomio de interpolación de Lagrange es el método básico para resolver tales problemas, requiere muchos recursos y es difícil de expandir [14] .

El siguiente paso es introducir el concepto de diferencia dividida de orden -ésimo basada en la razón de la diferencia en el valor de una función en los nodos vecinos a la distancia entre los nodos, que, en virtud de su definición, tiene un número de propiedades útiles, en particular, las diferencias de orden divididas de un polinomio de grado tienen un grado , es decir, las diferencias de orden son constantes, mientras que las diferencias de orden superior son [15] . Las diferencias divididas permiten reescribir el polinomio de interpolación de Lagrange en una forma que sea más conveniente para los cálculos. La nueva fórmula se llama polinomio de interpolación de Newton [16] , en el caso de intervalos iguales la fórmula se simplifica mucho [17] . Usando las diferencias divididas, se construyen las fórmulas de interpolación de Gauss , Stirling , Bessel , Everett [18] . En el caso general, las diferencias divididas primero disminuyen con un orden creciente y luego comienzan a crecer nuevamente, en otras palabras, no tiene sentido usar diferencias de alto orden en los cálculos [19] . Esto plantea la cuestión de la convergencia del proceso de interpolación, para cuya solución intervienen varios métodos de análisis matemático [20] .

Aproximaciones uniformes

Al resolver problemas prácticos, es necesario calcular repetidamente los valores de una función dada, que en el caso general es una operación que requiere muchos recursos. Existe la necesidad de encontrar la función de mejor aproximación uniforme [21] . Por aproximación, las funciones en un espacio lineal normado forman un subespacio de la dimensión de todas las combinaciones lineales posibles para las que se define la norma y existe su ínfimo . El elemento en el que se alcanza este borde se denomina elemento de mejor aproximación o proyección [22] . Se puede probar que en un subespacio siempre existe un elemento de la mejor aproximación [23] , y bajo la condición de estricta normalización del espacio, tal elemento es único [24] . En el espacio de funciones continuas con la norma

también hay un elemento de mejor aproximación [25] , pero la condición para su unicidad es la presencia de, como máximo , ceros distintos del polinomio generalizado en el intervalo ( polinomios de Chebyshev ) [26] .

La teoría de funciones es aplicable a un sistema de funciones de potencia, ya que es un sistema de Chebyshev en cualquier intervalo [27] . Según el teorema de Weierstrass , a medida que aumenta la dimensión del subespacio ( ), la diferencia entre la proyección y la función dada tiende a cero [28] . El orden de esta aproximación depende de las características estructurales de la función, se puede determinar utilizando polinomios de Bernstein [29] . El sistema de funciones trigonométricas también tiene las propiedades del sistema de Chebyshev sobre el intervalo , por lo que la diferencia entre la proyección y la función dada también tiende a cero [30] .

A pesar de la existencia mostrada del polinomio de mejor aproximación, no hay formas de construirlo exactamente. En su lugar, se utilizan varios métodos para aproximar la construcción de polinomios de la mejor aproximación uniforme [31] .

Aproximaciones RMS

En muchos casos, el requisito de aproximación uniforme es redundante y la cercanía "integral" de funciones es suficiente, además, los valores de funciones aproximadas obtenidos de experimento conllevan errores aleatorios, y no es recomendable exigir la coincidencia de los aproximar y aproximar funciones si esta última contiene inexactitudes. El método de aproximación de raíz cuadrada media toma el siguiente valor como medida de proximidad

lo que permite abandonar la interpolación del integrando y el requisito de continuidad, conservando solo los requisitos de integrabilidad cuadrada [32] .

Integración y diferenciación numérica

Una ecuación de la forma , definida sobre un espacio de funciones, puede contener operadores de diferenciación e integración , para los cuales es imposible encontrar una solución exacta. Los métodos de diferenciación e integración numérica se basan en la interpolación [33] .

La derivada de la función principal se considera aproximadamente igual a la derivada de la función de interpolación, mientras que la derivada del resto de la fórmula de interpolación puede ser grande, especialmente para derivadas de orden superior [34] . Las fórmulas de diferenciación numérica se basan en gran medida en la diferenciación directa de las fórmulas de interpolación de Newton [35] , Gauss, Stirling y Bessel [36] , construidas sobre diferencias distribuidas, pero también existen fórmulas sin diferencias. En particular, cuando para el diferencial numérico se utiliza directamente la fórmula de Lagrange para intervalos iguales [37] , el método de los coeficientes indefinidos y otros [38] .

En el caso de la integración , la propia definición de la integral indica la posibilidad de sustituirla por una suma integral , pero esta técnica tiene una convergencia lenta y es de poca utilidad. La integral de la función principal se considera aproximadamente igual a la integral de la función de interpolación, y en el futuro se utilizan fórmulas de interpolación con múltiples nodos [39] . El uso del polinomio de interpolación de Lagrange para intervalos iguales como integrando da lugar a las fórmulas de Newton-Cotes [40] y sus casos particulares, la fórmula trapezoidal cuando se reemplaza la curva del integrando por una cuerda y la integral es igual al área de el trapezoide y la fórmula de Simpson cuando la curva integrando se reemplaza por una parábola que pasa por tres puntos [41] . Al abandonar el requisito de intervalos iguales, utilizando el polinomio de interpolación de Lagrange, se pueden obtener fórmulas más precisas para la integración numérica, en particular, las fórmulas de Gauss [42] , fórmulas de Hermite [43] , fórmulas de Markov [44] , fórmulas de Chebyshev [45 ] . Los procesos de cuadratura basados ​​en las fórmulas de interpolación de Gauss siempre convergen, mientras que las fórmulas de Newton-Cotes no tienen estas propiedades en el caso general [46] .

Existen otras formas de integración numérica, siendo la principal el uso de las fórmulas de Euler , en las que un cambio de variables y la posterior integración por partes conduce a una fórmula de integración numérica por trapezoide y un término de corrección, al que se suma el cambio de variables y Se vuelve a aplicar la integración por partes. En el caso general, la fórmula de Euler utiliza números y polinomios de Bernoulli como coeficientes [47] . La cuestión de aplicar uno u otro método de integración numérica depende de factores como las herramientas computacionales, la precisión requerida y el método para especificar el integrando. Para cálculos manuales, se recomienda utilizar fórmulas que contengan diferencias, mientras que para cálculos automáticos, fórmulas sin diferencias, especialmente fórmulas de Gauss [48] .

Para el cálculo aproximado de integrales múltiples, las fórmulas para la integración numérica de integrales simples se utilizan repetidamente, mientras que dependiendo de las características de la función, se pueden utilizar diferentes fórmulas para diferentes integrales. Al utilizar este método, es necesario calcular el integrando en un gran número de puntos, por lo que es recomendable utilizar las fórmulas de Gauss y Chebyshev, que son más precisas [49] . Otra forma es reemplazar el integrando con un polinomio de interpolación en dos o más variables [50] . Lyusternik y Ditkin sugirieron utilizar las fórmulas de Maclaurin para el cálculo aproximado de la integral múltiple [51] . Al mismo tiempo, a medida que aumenta la multiplicidad de la integral, aumenta considerablemente el número de puntos para los que es necesario conocer los valores del integrando para poder utilizar métodos basados ​​en la interpolación. Para calcular integrales múltiples, se utilizan con mayor frecuencia los métodos probabilísticos de Monte Carlo , mientras que la necesidad de obtener secuencias igualmente posibles crea errores adicionales que son difíciles de estimar [52] .

Resolución de sistemas de ecuaciones algebraicas lineales

Hay dos grupos de métodos para resolver sistemas de ecuaciones algebraicas lineales: los métodos exactos permiten, utilizando un número finito de operaciones, obtener valores exactos de las incógnitas e incluyen la transformación del sistema a una forma simple y la solución de un sistema simplificado; los métodos de aproximación sucesiva basados ​​en aproximaciones iniciales permiten obtener valores aproximados “mejorados”, para lo cual la operación de “mejora” debe repetirse secuencialmente; Los métodos de Monte Carlo permiten, en base a la expectativa matemática de variables aleatorias , obtener una solución al sistema [53] .

El método de eliminación conocido del curso escolar de álgebra permite reducir la matriz del sistema a una forma diagonal o triangular [54] . El esquema de eliminación de Gauss con la elección del elemento principal, que es necesario para reducir el error de cálculo, incluye un movimiento hacia adelante (el proceso de eliminación en sí) y un movimiento hacia atrás (solución de un sistema con una matriz triangular) [55] . Su versión compacta se utiliza para determinar la matriz inversa, que puede ser útil si solo cambia el lado derecho en el sistema de ecuaciones lineales [56] y para calcular los determinantes [57] . El esquema de Jordan permite facilitar el movimiento inverso [58] , y en el esquema sin movimiento inverso, que se basa en la transformación de la matriz celular , este último no es necesario [59] . La condición de simetría matricial nos permite hacer una serie de simplificaciones y utilizar el método de la raíz cuadrada, en el que la matriz del sistema se representa como el producto de la matriz triangular inferior por la matriz transpuesta con respecto a ella, en la que los elementos de las matrices triangulares se determinan mediante fórmulas a través de los productos de los elementos de la matriz original (en ausencia de la condición de matrices definidas positivas, algunas fórmulas pueden contener elementos imaginarios), y luego el sistema se resuelve en dos etapas mediante la solución de matrices auxiliares sistemas construidos sobre matrices triangulares [60] . También existe un método de ortogonalización basado en las propiedades del producto escalar [61] , el método del gradiente conjugado, en el que se construye una función auxiliar que forma una familia de elipsoides con un centro común y para la que es necesario encontrar un vector para lo cual toma el valor mínimo [62] . Para matrices de orden alto se utiliza el método de partición de celdas, cuando el problema se reduce a resolver problemas para matrices de orden inferior [63] .

En el caso de aproximaciones sucesivas se utiliza la fórmula recurrente

donde  es una función que depende de la matriz del sistema, el lado derecho, el número de aproximación y aproximaciones anteriores , donde  es el vector inicial. En este caso, se considera que el método es de primer orden si la función depende únicamente de la última de las aproximaciones anteriores. En este caso, la fórmula se puede escribir como , donde . Para la comodidad de los cálculos, es deseable utilizar una matriz diagonal o triangular , que será conveniente para invertir. Dependiendo de la elección de esta matriz, los métodos se denominan de paso completo y de un paso, respectivamente [64] . Los métodos lineales de paso completo incluyen la iteración simple [65] , el método de Richardson [66] ; a métodos lineales de un paso - el método Seidel [67] , el método de relajación [68] ; a métodos no lineales - el método de descenso más pronunciado [69] .

Solución de ecuaciones algebraicas de grado superior y ecuaciones trascendentales

La solución de una ecuación algebraica , donde la función de un argumento real o complejo está en el lado izquierdo, se encuentra en el plano complejo [70] . Para determinarlo, en primer lugar, es necesario encerrar cada raíz en un área suficientemente pequeña, es decir, separarla, para lo cual se suelen utilizar métodos gráficos [71] . Para raíces reales también se utilizan la regla generalizada de Descartes, el teorema de Sturm [72] , el método de Fourier [73] . El método de la raíz cuadrada, o el método de Lobachevsky [74] ha encontrado una amplia aplicación . En su formulación básica, se aplica a raíces reales [75] que están muy separadas, pero hay generalizaciones tanto para raíces complejas [76] como reales iguales o cercanas [77] .

Los métodos iterativos para resolver ecuaciones algebraicas se dividen en estacionarios, cuando una función está asociada a otra función con las mismas raíces, independiente del número de iteración [78] , y no estacionarios, cuando la función puede depender del número de iteración. Los métodos iterativos estacionarios más simples incluyen el método de la secante (o el método de interpolación lineal) y el método de la tangente (o método de Newton), que son métodos de primer y segundo orden, respectivamente. La combinación de estos métodos, en los que las aproximaciones sucesivas se encuentran en lados opuestos de la raíz, permite lograr una convergencia más rápida [79] . El método de Chebyshev, basado en la expansión de la función inversa por la fórmula de Taylor, permite construir métodos de orden superior con una convergencia muy rápida [80] . También existe un método basado en el teorema de Koenig [81] y el método de Aitken [82] . Para probar la convergencia de métodos iterativos, se utiliza el principio de mapeos comprimidos [83] .

Véase también

Notas

  1. Mucha VS  Métodos computacionales y álgebra informática: método de libro de texto. tolerancia. — 2ª ed., corregida. y adicional - Minsk: BGUIR, 2010. - 148 p.: limo, ISBN 978-985-488-522-3 , UDC 519.6 (075.8), BBK 22.19ya73, M92
  2. 1 2 3 4 5 6 7 Enciclopedia de cibernética / Glushkov V. M., Amosov N. M., Artemenko I. A. - Kiev, 1974. - T. 2. - S. 530-532.
  3. Dyachenko V. F. Conceptos básicos de matemáticas computacionales. - M., Nauka, 1972. - Circulación 45.000 ejemplares. - página 10
  4. Kalitkin, 1978 , pág. 3.
  5. Berezin, Zhidkov, volumen 1, 1962 , pág. 33.
  6. Kalitkin, 1978 , pág. 2.
  7. Berezin, Zhidkov, volumen 1, 1962 , pág. 13-16.
  8. Berezin, Zhidkov, volumen 1, 1962 , pág. 57-58.
  9. Berezin, Zhidkov, volumen 1, 1962 , pág. 53.
  10. Berezin, Zhidkov, volumen 1, 1962 , pág. 63.
  11. Berezin, Zhidkov, volumen 1, 1962 , pág. sesenta y cinco.
  12. Berezin, Zhidkov, volumen 1, 1962 , pág. 77-79.
  13. Berezin, Zhidkov, volumen 1, 1962 , pág. 79-80.
  14. Berezin, Zhidkov, volumen 1, 1962 , pág. 84-87.
  15. Berezin, Zhidkov, volumen 1, 1962 , pág. 102-106.
  16. Berezin, Zhidkov, volumen 1, 1962 , pág. 106-109.
  17. Berezin, Zhidkov, volumen 1, 1962 , pág. 112.
  18. Berezin, Zhidkov, volumen 1, 1962 , pág. 125-135.
  19. Berezin, Zhidkov, volumen 1, 1962 , pág. 111-112.
  20. Berezin, Zhidkov, volumen 1, 1962 , pág. 149-150.
  21. Berezin, Zhidkov, volumen 1, 1962 , pág. 331-333.
  22. Berezin, Zhidkov, volumen 1, 1962 , pág. 333-334.
  23. Berezin, Zhidkov, volumen 1, 1962 , pág. 334-336.
  24. Berezin, Zhidkov, volumen 1, 1962 , pág. 336-337.
  25. Berezin, Zhidkov, volumen 1, 1962 , pág. 337.
  26. Berezin, Zhidkov, volumen 1, 1962 , pág. 337-342.
  27. Berezin, Zhidkov, volumen 1, 1962 , pág. 347-348.
  28. Berezin, Zhidkov, volumen 1, 1962 , pág. 349-352.
  29. Berezin, Zhidkov, volumen 1, 1962 , pág. 352-355.
  30. Berezin, Zhidkov, volumen 1, 1962 , pág. 355-357.
  31. Berezin, Zhidkov, volumen 1, 1962 , pág. 364-365.
  32. Berezin, Zhidkov, volumen 1, 1962 , pág. 386-387.
  33. Berezin, Zhidkov, volumen 1, 1962 , pág. 217.
  34. Berezin, Zhidkov, volumen 1, 1962 , pág. 217-220.
  35. Berezin, Zhidkov, volumen 1, 1962 , pág. 220-226.
  36. Berezin, Zhidkov, volumen 1, 1962 , pág. 226-228.
  37. Berezin, Zhidkov, volumen 1, 1962 , pág. 230-234.
  38. Berezin, Zhidkov, volumen 1, 1962 , pág. 234-236.
  39. Berezin, Zhidkov, volumen 1, 1962 , pág. 237-240.
  40. Berezin, Zhidkov, volumen 1, 1962 , pág. 240-243.
  41. Berezin, Zhidkov, volumen 1, 1962 , pág. 243-254.
  42. Berezin, Zhidkov, volumen 1, 1962 , pág. 254-258.
  43. Berezin, Zhidkov, volumen 1, 1962 , pág. 264-266.
  44. Berezin, Zhidkov, volumen 1, 1962 , pág. 266-269.
  45. Berezin, Zhidkov, volumen 1, 1962 , pág. 269-276.
  46. Berezin, Zhidkov, volumen 1, 1962 , pág. 279-284.
  47. Berezin, Zhidkov, volumen 1, 1962 , pág. 289-297.
  48. Berezin, Zhidkov, volumen 1, 1962 , pág. 305-306.
  49. Berezin, Zhidkov, volumen 1, 1962 , pág. 315-318.
  50. Berezin, Zhidkov, volumen 1, 1962 , pág. 318-320.
  51. Berezin, Zhidkov, volumen 1, 1962 , pág. 320-324.
  52. Berezin, Zhidkov, volumen 1, 1962 , pág. 324-325.
  53. Berezin, Zhidkov, volumen 2, 1959 , pág. 9-10.
  54. Berezin, Zhidkov, volumen 2, 1959 , pág. diez.
  55. Berezin, Zhidkov, volumen 2, 1959 , pág. 10-13.
  56. Berezin, Zhidkov, volumen 2, 1959 , pág. 17-18.
  57. Berezin, Zhidkov, volumen 2, 1959 , pág. 18-19.
  58. Berezin, Zhidkov, volumen 2, 1959 , pág. 19-20.
  59. Berezin, Zhidkov, volumen 2, 1959 , pág. 20-23.
  60. Berezin, Zhidkov, volumen 2, 1959 , pág. 23-25.
  61. Berezin, Zhidkov, volumen 2, 1959 , pág. 25-30.
  62. Berezin, Zhidkov, volumen 2, 1959 , pág. 30-31.
  63. Berezin, Zhidkov, volumen 2, 1959 , pág. 41.
  64. Berezin, Zhidkov, volumen 2, 1959 , pág. 54-56.
  65. Berezin, Zhidkov, volumen 2, 1959 , pág. 56-59.
  66. Berezin, Zhidkov, volumen 2, 1959 , pág. 59-61.
  67. Berezin, Zhidkov, volumen 2, 1959 , pág. 61-62.
  68. Berezin, Zhidkov, volumen 2, 1959 , pág. 66-67.
  69. Berezin, Zhidkov, volumen 2, 1959 , pág. 67-73.
  70. Berezin, Zhidkov, volumen 2, 1959 , pág. 76.
  71. Berezin, Zhidkov, volumen 2, 1959 , pág. 76-79.
  72. Berezin, Zhidkov, volumen 2, 1959 , pág. 83-88.
  73. Berezin, Zhidkov, volumen 2, 1959 , pág. 88-94.
  74. Berezin, Zhidkov, volumen 2, 1959 , pág. 103.
  75. Berezin, Zhidkov, volumen 2, 1959 , pág. 103-107.
  76. Berezin, Zhidkov, volumen 2, 1959 , pág. 107-114.
  77. Berezin, Zhidkov, volumen 2, 1959 , pág. 115.
  78. Berezin, Zhidkov, volumen 2, 1959 , pág. 128-129.
  79. Berezin, Zhidkov, volumen 2, 1959 , pág. 135-140.
  80. Berezin, Zhidkov, volumen 2, 1959 , pág. 140-143.
  81. Berezin, Zhidkov, volumen 2, 1959 , pág. 143-146.
  82. Berezin, Zhidkov, volumen 2, 1959 , pág. 146-148.
  83. Berezin, Zhidkov, volumen 2, 1959 , pág. 129-134.

Literatura

Enlaces