Convergencia de distribución

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 12 de enero de 2020; las comprobaciones requieren 2 ediciones .

La convergencia de distribución en la teoría de la probabilidad es  un tipo de convergencia de variables aleatorias .

Definición

Sea dado un espacio de probabilidad y variables aleatorias definidas en él . Cada variable aleatoria induce una medida de probabilidad , llamada su distribución .

Las variables aleatorias convergen en distribución a una variable aleatoria si las distribuciones convergen débilmente a la distribución , es decir

para cualquier función continua acotada [1] [2] .

Notas

.

Propiedades de la convergencia en distribución

. casi en todas partes , entonces _ ¡Lo contrario generalmente no es cierto! . Lo contrario generalmente no es cierto.

Véase también

Notas

  1. en:Convergencia_de_variables_aleatorias#Convergencia_en_distribución
  2. en:Convergencia_de_medidas#Convergencia_débil_de_medidas