La convergencia de distribución en la teoría de la probabilidad es un tipo de convergencia de variables aleatorias .
Sea dado un espacio de probabilidad y variables aleatorias definidas en él . Cada variable aleatoria induce una medida de probabilidad , llamada su distribución .
Las variables aleatorias convergen en distribución a una variable aleatoria si las distribuciones convergen débilmente a la distribución , es decir
para cualquier función continua acotada [1] [2] .