Convergencia de variables aleatorias

En teoría de la probabilidad, existen diferentes nociones de convergencia de variables aleatorias. La convergencia de sucesiones de variables aleatorias a una variable aleatoria límite es un concepto importante en teoría de la probabilidad, y en sus aplicaciones a la estadística y los procesos estocásticos.

Convergencia en distribución editar

Definición editar

Se dice que una sucesión   de variables aleatorias reales converge en distribución, o converge en ley, o converge débilmente, a una variable aleatoria   si

 

para todo punto   en el que   es continua, donde   y   denotan las funciones de distribución acumulada de las variables aleatorias   y  , respectivamente.

La convergencia en distribución puede indicarse como:

 

 

 

 

 

(1)

donde   es la ley (distribución de probabilidad) de X. Por ejemplo, si X es una gausiana típica o normal estándar se puede escribir  .

Convergencia en probabilidad editar

Definición editar

Una sucesión   de variables aleatorias reales converge en probabilidad a una variable aleatoria   si para todo  

 

Suele indicarse de alguna de estas maneras:

 

 

 

 

 

(2)

Convergencia casi segura editar

Definición editar

Una sucesión   de variables aleatorias reales converge casi seguramente, o con probabilidad 1, a una variable aleatoria   si

 

Notación:

 

 

 

 

 

(3)

Convergencia en editar

Definición editar

Dado un número real  , se dice que la sucesión   de variables aleatorias reales converge en   a la variable aleatoria  , si los momentos absolutos  -ésimos   y   de   y de   existen, y

 

donde el operador   denota la esperanza matemática.

Notación:

 

 

 

 

 

(4)