El principio de máxima entropía establece que las distribuciones de probabilidad más características de los estados de un entorno incierto son aquellas que maximizan la medida de incertidumbre elegida para una información dada sobre el "comportamiento" del entorno. Por primera vez, D.Gibbs utilizó este enfoque para encontrar funciones de distribución extremas de conjuntos físicos de partículas . Posteriormente, E. Janes propuso un formalismo para restaurar leyes desconocidas de distribución de variables aleatorias en presencia de restricciones de las condiciones para el máximo de la entropía de Shannon .
Considere una variable aleatoria discreta que puede tomar valores con probabilidades . Las probabilidades no se conocen. Pero se conoce la expectativa matemática de alguna función de una variable aleatoria dada: . Con base en esta información, ¿cuál es el valor esperado de la función ?
A primera vista, la tarea parece irresoluble, ya que es necesario conocer de antemano la distribución de probabilidad , y la información inicial no es suficiente para encontrar todas las probabilidades . La ecuación de expectativa de la función , junto con la ecuación de normalización, da solo dos de las ecuaciones necesarias para compilar un sistema de ecuaciones.
Este problema de determinar la distribución de probabilidad en los casos en que hay poca o ninguna información sobre una variable aleatoria es tan antiguo como la propia teoría de la probabilidad. El Principio de Razón Insuficiente de Laplace fue un intento de proponer tal criterio de selección: es que dos eventos se consideran igualmente probables a menos que haya razones para creer lo contrario.
Cabe señalar [1] que la conexión de la estadística con la teoría axiomática de la probabilidad tiene 2 enfoques diferentes. El enfoque de frecuencia (frecuentista) considera la probabilidad como un límite de frecuencia , la probabilidad es algo que describe las propiedades de conjuntos infinitamente grandes de eventos binarios. El enfoque bayesiano generaliza el enfoque frecuentista en el sentido de que postula un nuevo significado de probabilidad como una característica cuantitativa de cualquier experimento binario. Esto da los mismos resultados al describir conjuntos que el enfoque frecuentista, pero nos permite dar estimaciones cuantitativas para experimentos binarios, cuyo resultado no se conoce de antemano, y mejorar las estimaciones a medida que se dispone de nueva información sobre los resultados; Todo esto no tiene sentido en la comprensión frecuentista.
Laplace , por ejemplo, creía que no hay nada aleatorio en el mundo, y si hay información sobre las causas de los eventos, entonces las consecuencias (los eventos mismos) se pueden predecir con un 100% de precisión ( determinismo laplaciano ). Este enfoque de la probabilidad fue desarrollado independientemente por el físico D. Gibbs (en la mecánica estadística de Gibbs ) y el matemático K. Shannon (en el desarrollo de la teoría de la información ). Ambos recibieron un valor que expresa una medida de incertidumbre sobre los resultados de un evento (o, en otras palabras, una medida de la incertidumbre de una distribución de probabilidad), que se denominó entropía y se calculó utilizando fórmulas similares. Esta similitud llamó la atención del físico E. T. Janes en dos artículos en 1957 [1] [2] .
Estrictamente hablando, Gibbs no fue un pionero en desarrollar el concepto de entropía física. El propio concepto de entropía fue propuesto por el físico R. Clausius , y luego fue desarrollado por el físico L. Boltzmann , y cada uno de ellos recibió su propia función de entropía. Clausius trabajó con conceptos termodinámicos, mientras que Boltzmann desarrolló la física molecular y la mecánica estadística.
Del mismo modo, Shannon basó su trabajo en los resultados de G. Nyquist y R. Hartley , quienes sentaron las bases de la teoría de la información.
Suponga que un evento puede ocurrir o no en un experimento aleatorio. Si el evento no ocurrió, asumiremos que ocurrió el evento contrario . Así, los eventos y forman un grupo completo de eventos, lo que significa que estos son eventos incompatibles, y sus probabilidades en la suma son iguales a uno: .
Si no se sabe nada sobre el evento , entonces, de acuerdo con el enfoque subjetivo de la probabilidad, es necesario aceptar que los eventos y son igualmente probables: .
A medida que obtenga información, una probabilidad comenzará a pesar más que la otra y la incertidumbre comenzará a disminuir. Al final, cuando se obtiene la información completa, resulta que , (o viceversa: , ). La incertidumbre entonces cae a cero.
Sería bueno idear una función de estas probabilidades que alcance un máximo con total incertidumbre y desaparezca con total certeza. Y cuanto más una probabilidad supera a la otra, más “asimetría” entre ellas, menos valor toma esta función.
Llamamos a esta función (funcional) la entropía de la distribución o la incertidumbre de la distribución. Estrictamente hablando, la entropía es solo una medida de la incertidumbre, no la incertidumbre en sí misma. Pero aquí todo es lo mismo que en el caso de las probabilidades: la probabilidad es a la vez la posibilidad de un evento y la medida de esta posibilidad. En principio, es correcto decir esto y aquello.
Como tal función, uno puede considerar, por ejemplo, el producto de las probabilidades de eventos y . Denota y considera la función . Como es una parábola invertida que pasa por el origen y el punto , alcanza su máximo en .
Además, a medida que aumenta la "asimetría" de las probabilidades, disminuye gradualmente hasta que finalmente se vuelve cero en o en .
Cabe señalar que debido a la simetría , porque no importa cuál de los dos eventos tiene probabilidad y cuál tiene probabilidad .
Por otro lado, (0.21<0.24) porque en este segundo caso las probabilidades son más "asimétricas" que en el primer caso.
Tenga en cuenta que la función , donde es algún coeficiente, también hace frente a los "deberes" que se le imponen: alcanza un máximo en y un mínimo (cero) en y . Esto significa que el funcional deseado se puede determinar hasta cierto coeficiente.
Que ahora el grupo completo de eventos esté formado por tres eventos. Es posible en este caso considerar el producto de sus probabilidades como entropía, e incluso se puede demostrar que este producto alcanza su máximo cuando todas las probabilidades son iguales entre sí: .
Aquí, sin embargo, hay un problema. La entropía máxima para tres eventos es - que es menor que la entropía máxima para dos eventos, que es . Y me gustaría que fuera al revés: cuantos más eventos, mayor incertidumbre.
Otro problema más serio es que si la probabilidad de al menos un evento es cero, entonces todo el producto de probabilidades automáticamente se convierte en cero. Es decir, la incertidumbre desaparece, se hace igual a cero según tal funcional, aunque en realidad no lo es. La incertidumbre debería desaparecer cuando todas menos una de las probabilidades son iguales a cero, y esta única probabilidad es igual a uno. Sin embargo, para dos resultados, tal funcional se puede usar bastante bien. Pero para dos resultados y no se necesitan funcionales: si se conoce la esperanza de la distribución de alguna variable aleatoria , entonces la ecuación esperada, junto con la condición de normalización, solo da un sistema de dos ecuaciones, a partir de las cuales y se encuentran de forma única . Si no se sabe nada sobre la distribución, entonces las probabilidades se igualan entre sí, y esto se puede hacer sin ningún funcional.
Claude Shannon impuso tres condiciones a la función requerida [3] :
La ley de composición requiere una consideración especial, ya que es sobre su base que se forma más la forma de la función . La idea es la siguiente.
El experimento aleatorio se divide en dos etapas sucesivas. En la primera etapa, la primera (antes ) o la segunda (después ) parte de los resultados se selecciona con probabilidades y . En la segunda etapa, el resultado en sí se selecciona de la parte seleccionada de los resultados. En este caso, el resultado de la parte seleccionada ya está seleccionado con probabilidades condicionales , es decir, siempre que se seleccione esta parte (en este caso, la primera parte). El propio Shannon dice que si la elección se divide en dos etapas, la entropía inicial debe ser una suma ponderada de las entropías individuales, es decir, las entropías condicionales.
El significado general es que si se hace una elección aleatoria en la primera etapa, entonces las probabilidades y toman los valores o , y la incertidumbre adicional es igual a solo una de las entropías condicionales.
Como ejemplo, considere dos gráficos:
En el gráfico de la izquierda hay tres resultados con probabilidades , , , que forman un grupo completo de eventos (es decir, ). En el gráfico de la derecha, primero elegimos entre dos posibilidades, cada una con probabilidad . Si se elige la segunda posibilidad, entonces se hace otra elección con probabilidades y . Las entropías en ambos gráficos deberían resultar iguales, ya que al final se obtienen los mismos resultados con las mismas probabilidades. De acuerdo con la ley de composición, escribimos .
Aquí , dado que el grupo completo de eventos, que consiste en un solo evento, que ocurre con un ciento por ciento de probabilidad, genera incertidumbre cero. Al mismo tiempo, según el propio Shannon, el coeficiente aparece porque la segunda opción aparece solo la mitad de todas las veces.
En la ley de composición, la primera etapa puede no constar de dos posibilidades, sino de un mayor número de posibilidades con las correspondientes probabilidades , , , …
La ley de composición es una especie de generalización de la propiedad aditiva de la entropía, aunque no se sigue directamente de esta propiedad. De hecho, supongamos que un experimento consta de seis resultados igualmente probables. Divida estos resultados en tres partes iguales: en la primera etapa, se selecciona una de las tres partes, en la segunda etapa, se selecciona el resultado dentro de la parte correspondiente. Entonces puedes escribir .
La ecuación resultante se puede reescribir así:
.
Obviamente, en general .
Pero el mismo resultado se puede obtener de otras consideraciones.
Supongamos que hay un experimento aleatorio con resultados igualmente probables y otro experimento aleatorio con resultados igualmente probables. Deje que estos dos experimentos aleatorios no tengan nada que ver entre sí. Pero en cualquier caso, se pueden considerar como un experimento combinado, en el que un resultado separado es que ocurrieron el resultado ésimo del primer experimento y el resultado ésimo del segundo experimento. En tal experimento combinado, ya hay resultados equiprobables. Dado que la incertidumbre de los dos experimentos no debería cambiar dependiendo de tal cambio de punto de vista, entonces .
Como consecuencia de este resultado, , donde es un entero no negativo. Si , entonces la última igualdad toma la forma , sin dejar de ser una verdadera igualdad.
La ley de composición nos permite expresar la entropía de una distribución de probabilidad, en la que todas las probabilidades son números racionales, como una suma ponderada de funciones . En efecto, sea un grupo completo de eventos de eventos incompatibles con probabilidades , , …, , donde , , son números naturales, . Entonces uno puede escribir
.
A partir de esta ecuación ya es posible expresar .
En realidad, no se sabe exactamente de dónde sacó Shannon su ley de composición. Tal vez solo quería que su entropía resultara ser similar a la de Hartley, y se le ocurrió tal condición (ley de composición) a partir de la cual se obtendría la entropía de Shannon de una manera única.
Teorema:
la única función que satisface las tres condiciones de Shannon que se le imponen tiene la forma , donde es cualquier constante positiva, y el logaritmo se toma en cualquier base mayor que uno. |
prueba _
La prueba se reduce a encontrar la forma de la función .
Para cualquier natural y arbitrariamente grande , uno puede encontrar un entero natural y no negativo que (esto es obvio). Potenciando ambos lados de la desigualdad y dividiendo por , obtenemos , de donde . Como la base del logaritmo natural es mayor que uno, el signo de las desigualdades no cambia.
Por otro lado, con base en la monotonicidad de , podemos escribir , , de donde de manera similar , . Entonces puedes escribir . Pasando al límite con respecto a , obtenemos . Por lo tanto , donde es una constante positiva arbitraria, es una base natural arbitraria del logaritmo (mayor que uno). La arbitrariedad de la constante está relacionada no solo con el hecho de que se reduce en el numerador y el denominador, sino también con el hecho de que la base del logaritmo se elige arbitrariamente. Puedes ir al logaritmo natural y obtener . Esto sugiere que la base del logaritmo no necesita ser un número natural. Además, utilizando la representación de la función en términos de la función , podemos escribir Dado que cualquier número real se puede aproximar con cualquier grado de precisión mediante un número racional, y la función en sí misma es continua (es decir, cambia de manera insignificante con una pequeña cambio en el argumento), Shannon sugirió usar esta fórmula para probabilidades dadas por números reales.
El teorema ha sido probado .
Si la probabilidad es cero, entonces es necesario considerar que el límite del producto tiende a cero:
Se puede probar [4] que la entropía de Shannon toma un valor máximo en una distribución uniforme. Para probar esto, encontramos el máximo condicional de la entropía de Shannon bajo la condición de normalización .
Para hacer esto, usamos el método del multiplicador de Lagrange para encontrar los extremos condicionales. Este método en resumen es el siguiente.
Supongamos que se requiere encontrar un extremo local de una función continua de variables que tienen derivadas parciales con respecto a todas las variables, siempre que ,…, , donde ,…, son funciones continuas que tienen derivadas parciales con respecto a todas las variables, . Entonces la función de Lagrange se compone de la forma , donde los números se llaman multiplicadores de Lagrange.
Una condición necesaria para la existencia de un extremo condicional en algún punto es la igualdad a cero o la inexistencia de todas las derivadas parciales de su función de Lagrange en ese punto. Por tanto, un sistema se compila y resuelve a partir de las derivadas parciales de la función de Lagrange, igualadas a cero, así como a partir de las condiciones impuestas al extremo. La solución del sistema (si existe) es la coordenada del extremo, así como los valores de los multiplicadores de Lagrange.
En el caso de la entropía de Shannon, la función de Lagrange tiene la forma: .
Escribamos el sistema de ecuaciones con la condición necesaria para la existencia de un extremo:
Resolviéndolo, obtenemos:
Como todas las ecuaciones son iguales, entonces , .
Entonces, el punto en el que puede existir un extremo es el único. Considerando que la función es continua y no definida negativamente, tomando el valor mínimo cero (en el caso de que una de las probabilidades sea igual a uno, y todas las demás sean iguales a cero), entonces el extremo encontrado es el punto de la máximo condicional global, y el máximo en sí mismo es igual a .
También se puede demostrar que en el conjunto de probabilidades para resultados elementales incompatibles, cualquier cambio en las dos probabilidades hacia su alineación (sin cambiar el número de resultados en sí) aumenta la entropía de la distribución.
Es fácil demostrarlo. Dado que solo cambian dos probabilidades, por ejemplo, y , las otras probabilidades permanecen sin cambios. Por lo tanto, los términos incluidos en la fórmula de entropía, asociados a otras probabilidades, permanecerán sin cambios y no afectarán el incremento de entropía. Al mismo tiempo, la cantidad también permanecerá sin cambios (por la misma razón). Por lo tanto, basta con llevar a cabo la prueba para solo dos resultados incompatibles que forman un grupo completo de eventos; entonces, la afirmación puede considerarse probada para un número arbitrario de resultados.
Denota y considera la función .
Su gráfica vs. es muy similar a una parábola invertida que pasa por el origen. El máximo se alcanza en el punto . Además, esta función es simétrica especular con respecto a la línea . Esto se sigue del hecho de que . Por lo tanto, según el gráfico, es obvio que cualquier cambio en las probabilidades hacia la ecualización conduce a un aumento de la entropía.
Shannon originalmente escribió [3] la siguiente fórmula para la entropía de una distribución continua, que también se conoce como entropía diferencial :
.
Aquí está la función de distribución de densidad de probabilidad desconocida de la variable aleatoria . (Si , entonces el integrando se reemplaza por su límite en este punto ). Sin embargo, a diferencia de la fórmula de Shannon para la entropía de una distribución discreta, esta fórmula no es el resultado de ninguna derivación (Shannon simplemente reemplazó el signo de la suma con el signo de la integral). Y, en rigor, no se puede derivar por una transición sucesiva de una fórmula de entropía discreta a una continua calculando el límite de sumas parciales integrales de la integral de Riemann [5] (se obtendrá un valor infinito). Sin embargo, la entropía diferencial tiene el significado de la incertidumbre promedio en la elección de una variable aleatoria con una ley de distribución arbitraria, menos la incertidumbre de una variable aleatoria distribuida uniformemente en un intervalo unitario.
Además de la entropía diferencial, también se conocen los ingleses. Divergencia Kullback-Leibler e inglés. Principio_de_la_entropía_máxima#Caso_continuo . Pero además, para explicar el principio de máxima entropía, se utilizará precisamente la entropía diferencial.
Se puede probar que la entropía diferencial toma un valor máximo en una distribución uniforme. Para probar esto, encontramos el máximo condicional de la entropía diferencial siempre que .
Bajo estas condiciones, es necesario encontrar una función tal que la integral de entropía diferencial tome el valor máximo. Está claro que en este caso la forma de la función en sí se convierte en una especie de variable, por lo que es necesario utilizar el cálculo de variaciones [3] , cuya tarea principal es encontrar una función en la que el funcional dado llegue al extremo. valores.
El método de variación se parece al método de Lagrange y, en resumen, es el siguiente. Sea un funcional con un integrando que tenga derivadas parciales primeras continuas, llamado función de Lagrange. Si esta funcional alcanza un extremo en alguna función , entonces se debe satisfacer una ecuación diferencial parcial para ella , llamada ecuación de Euler-Lagrange . En otras palabras, esta ecuación es una condición necesaria para la existencia de un extremo del funcional en la función . Si se impone una condición adicional de la forma a la función , entonces el extremo deseado se llama condicional, y la función de Lagrange toma la forma , y la ecuación diferencial debe resolverse ya para esta nueva función. La función encontrada dependerá no solo de , sino también del parámetro . Luego necesitas sustituir las condiciones en la integral y encontrar .
En el caso de la entropía diferencial, la función de Lagrange toma la forma . Entonces , de donde la ecuación de Euler-Lagrange toma la forma .
La solución de esta ecuación es una función , es decir, una constante de . Lo sustituimos en la condición y obtenemos .
Está claro que tal ecuación no tiene soluciones, así como está claro que una variable aleatoria no puede distribuirse uniformemente en toda la región de los números reales. Deje que todos los valores posibles se encuentren en algún intervalo . Entonces , ¿ de dónde ? Para todos los demás , es verdad .
Por sí mismo, el funcional encontrado (la entropía de Shannon en forma discreta o diferencial) todavía no da nada. Dado que no se sabe nada sobre los resultados de un experimento aleatorio, el principio de máxima entropía dicta que todos los resultados tengan las mismas probabilidades. Si estamos hablando de una variable aleatoria continua, entonces se supone que se distribuye uniformemente. Pero para llevar a cabo tal cita, no se requiere ninguna funcionalidad. El funcional permite solo una comparación cuantitativa de las incertidumbres de diferentes distribuciones.
El significado del principio de máxima entropía comienza a aparecer cuando se imponen restricciones a la distribución de probabilidad. El principio de máxima entropía en este caso es encontrar la máxima entropía bajo las restricciones impuestas. La distribución así obtenida se llama extremal.
Encontremos el máximo de entropía en los casos en que se imponen algunas restricciones en la distribución de una variable aleatoria, por ejemplo, se conocen algunos de sus momentos. Al utilizar el método de los multiplicadores de Lagrange y el método de cálculo de variaciones, se demostrará que:
En este caso, el principio de máxima entropía prescribe que la variable aleatoria se distribuya uniformemente. Ya se ha demostrado anteriormente que la entropía de Shannon en cualquier forma (discreta o continua) toma el máximo valor posible en tal distribución.
Suponga que sólo se conoce la expectativa matemática de la distribución de probabilidad discreta de alguna variable aleatoria . ¿Cuál es la distribución en este caso? La distribución está sujeta a restricciones adicionales:
Según el principio de máxima entropía, es necesario maximizar la función en estas condiciones
Componemos la función de Lagrange y encontramos los puntos de un posible extremo:
El sistema de derivadas parciales y condiciones impuestas tiene la forma:
Restando -e de la primera ecuación , obtenemos .
Combinando la ecuación resultante en un sistema con la condición de normalización y resolviéndola, obtenemos:
, de donde .
Ahora se sigue de la ésima ecuación .
Finalmente, con base en la ecuación de la expectativa, podemos escribir , de donde se sigue .
Finalmente, el sistema original se puede representar como:
Es bastante fácil probar que la solución a la segunda ecuación del sistema siempre existe y es única, aunque no siempre representable como una función explícita del argumento . Si se desea (aunque no necesariamente), se puede expresar a partir de la tercera ecuación en términos de . Pero, lo más importante, al sustituir en la primera ecuación, obtienes una distribución de probabilidad discreta con expectativa .
Dado que la solución encontrada es única, lo más probable es que el punto encontrado sea el extremo de entropía, y este extremo es el máximo condicional global.
La distribución de probabilidad encontrada se llama inglesa. Boltzmann_distribution , que también se conoce como distribución de Gibbs .
Supongamos que sólo se conoce el segundo momento inicial de la distribución de probabilidad discreta de alguna variable aleatoria : . ¿Cuál es la distribución en este caso?
Es claro que este caso no es diferente al anterior, excepto que los valores deben ser reemplazados por los valores , deben ser reemplazados por . La distribución final se verá como
Es fácil ver en este caso que si , entonces .
La función de Lagrange en este caso tiene la forma
El sistema de ecuaciones, que es condición necesaria para la existencia de un extremo, tiene la forma:
. Se puede traer a la mente
El problema de probar la existencia y unicidad de una solución en este caso es mucho más difícil. Además, el problema de encontrar los parámetros y de la segunda y tercera ecuaciones del sistema. Sin embargo, si la prueba es posible, entonces la distribución extrema con parámetros dados tendrá solo la forma encontrada.
Supongamos que solo conocemos la expectativa de una distribución de probabilidad continua de alguna variable aleatoria : . ¿Cuál es la función de distribución de densidad de probabilidad en este caso?
La distribución está sujeta a restricciones adicionales:
Según el principio de máxima entropía, es necesario maximizar la función en estas condiciones
Componemos la función de Lagrange y encontramos , para la cual es posible un extremo :
La ecuación de Euler-Lagrange en este caso tiene la forma .
Su solución es la función , es decir, el exponente.
Está claro que el área bajo la gráfica de tal función puede ser finita solo si no más de un límite de integración tiende a infinito. Por lo tanto, supondremos que una variable aleatoria puede tomar valores solo en algún dominio finito o semi-infinito , no necesariamente simplemente conectado. En todos los demás puntos, la función se considerará igual a cero.
Para encontrar los valores de los coeficientes y , es necesario componer un sistema de ecuaciones a partir de las condiciones impuestas a la distribución y resolverlo. El sistema se parece a:
y se puede traer a la mente .
Aquí se "toman" todas las integrales, por lo que se puede expresar de manera única en términos de: solo es necesario especificar el área más específicamente . En este caso, la solución encontrada es única.
Dado que el coeficiente se expresa de forma única a través de , entonces es único. Debido a la unicidad de la solución encontrada, la función maximiza el funcional . La función entonces tiene la forma .
La distribución encontrada se denomina distribución de Boltzmann (o Gibbs) de una variable aleatoria continua.
Supongamos que sólo se conoce el segundo momento inicial de la distribución de probabilidad de alguna variable aleatoria continua : . ¿Cuál es la distribución en este caso?
La función de Lagrange en este caso tiene la forma .
La ecuación de Euler-Lagrange tiene la forma .
Su solución es la función .
Está claro que el área bajo la gráfica puede ser finita solo en el caso de . Si , entonces se obtiene una distribución uniforme, que ya se ha considerado anteriormente.
Para encontrar los valores de los coeficientes y , debe componer un sistema de ecuaciones a partir de las condiciones impuestas a la distribución y resolverlo:
Dado que aquí hay una integral de Euler-Poisson definida , el sistema se puede escribir como:
, de donde finalmente
Entonces, la distribución es una distribución normal con media cero y varianza .
La función de Lagrange en este caso tiene la forma .
La ecuación de Euler-Lagrange tiene la forma .
Su solución es la función .
Vamos a tomarlo de nuevo .
Para encontrar los valores de los coeficientes , , , es necesario componer un sistema de ecuaciones a partir de las condiciones impuestas a la distribución y resolverlo:
El grado de un número en integrales se puede representar como: , donde , .
Después
,
dónde
.
Obviamente, es la varianza de la distribución .
Finalmente, la función se puede escribir como .
Entonces, obtuvimos una distribución normal con media y varianza .
Es fácil ver que inicialmente era posible establecer no el segundo momento inicial de la distribución, sino su varianza, y aun así se habría obtenido una distribución normal con los parámetros dados.
En la siguiente tabla, cada distribución listada maximiza la entropía bajo las condiciones impuestas a la distribución, como se indica en la tercera columna. La cuarta columna muestra el dominio de definición de la variable aleatoria.
Distribución | Función
probabilidades/densidad probabilidades |
Restricciones,
superpuesto a distribución |
Región
definiciones aleatorio cantidades |
---|---|---|---|
Uniforme | No | ||
Uniforme | No | ||
Bernoulli | |||
Geométrico | |||
Exponencial | |||
Laplace | |||
inglés Distribución_asimétrica_de_Laplace | |||
Pareto | |||
Normal | |||
inglés Von_Mises_distribución | |||
Rayleigh | |||
Beta | |||
cauchy | |||
inglés distribución_chi | |||
chi-cuadrado | |||
inglés Erlang_distribución | |||
Gama | |||
logaritmo normal | |||
Maxwell | |||
Weibulla | |||
Multidimensional | |||
Binomio | |||
veneno |