f -divergencia ( f -discrepancia ) es una clase de funcionalesque generalmente definen una medida asimétrica de divergencia entre dos distribuciones de probabilidad y. Comúnmente aplicado en la teoría de la información y la teoría de la probabilidad . El funcional está únicamente determinado (generado) por una funciónque satisface ciertas condiciones.
Esta clase de divergencias fue introducida y estudiada de forma independiente por Csiszár (1963 ), Morimoto (1963 ) y Ali & Silvey (1966 ). Por lo tanto, a veces puedes encontrar los nombres f -divergencia Chisara , divergencia Chisara-Morimoto o distancia Ali-Silvi.
Sean y sean distribuciones de probabilidad dadas en el conjunto tal que es absolutamente continua con respecto a . Sea la función convexa para y . Entonces la función define la f -divergencia con respecto a la siguiente forma:
Si es cualquier medida de , y ambas distribuciones y son continuas con respecto a , es decir, hay funciones y , entonces la f -divergencia se puede escribir como
En el caso de la medida de Lebesgue, las distribuciones tienen densidades y , entonces la divergencia f toma la forma
Para distribuciones discretas y , donde ,
Cabe señalar que la función está definida hasta el término , donde es una constante arbitraria. De hecho, la forma de la divergencia f no depende de la elección de , ya que el término de la función hace una contribución cero al valor de la integral. Además, la función puede contener una constante multiplicativa positiva , que especifica la unidad de medida de la divergencia. Al respecto, algunos autores (por ejemplo, Basseville (2010 )) indican restricciones adicionales a la función :
La primera de estas restricciones fija la constante , la segunda fija la constante . La condición puede ser útil porque en este caso con un mínimo en un punto (ver Liese & Vajda (2006 )), la expresión para la divergencia f es intuitivamente más fácil de entender. Sin embargo, esta forma de concretar una función no siempre es conveniente: por ejemplo, la existencia de una versión continua de la f -entropía asociada con una f -divergencia dada puede requerir un valor diferente de la constante .
La divergencia f puede expandirse en una serie de Taylor y escribirse como una suma ponderada de distancias tipo χ (ver Nielsen & Nock (2013 )).
Muchas divergencias bien conocidas, como la divergencia de Kullback-Leibler , la distancia de Hellinger al cuadrado , la distancia de chi-cuadrado y muchas otras, son casos especiales de divergencia f , que corresponden a una determinada elección de función . La siguiente tabla enumera algunos tipos comunes de divergencias entre las distribuciones de probabilidad y su función correspondiente (ver Liese & Vajda (2006 )).
Divergencia | función generativa |
---|---|
Divergencia Kullback-Leibler | |
Divergencia inversa de Kullback-Leibler | |
distancia Hellinger al cuadrado | |
Distancia de variación completa | |
distancia de Pearson | |
distancia de Neumann | |
divergencia alfa | |
Divergencia alfa (otras notaciones) |
Teniendo en cuenta la última propiedad, la clase de divergencias f podría definirse de manera equivalente como . Una definición similar se encuentra, por ejemplo, en Zhang (2004 ). Así, la interpretación de la distribución como verdadera, que se deriva de la definición de f -divergencia, no es su propiedad fundamental, sino sólo una consecuencia del acuerdo sobre el orden de los argumentos en la definición. En otras palabras, los argumentos y son conceptualmente iguales.
También vale la pena señalar que la f -divergencia es una cantidad adimensional , independientemente de la dimensión del conjunto .
Además de f -divergencia, I. Chisar definió el concepto relacionado de f -entropía ( Csiszár (1972 )).