Convergencia en probabilidad

La convergencia en probabilidad se da cuando a medida que , o el tamaño de muestra, aumenta entonces la variable aleatoria (v.a.) toma valores cercanos a una constante con mayor probabilidad. Un ejemplo sencillo de esto sería, dado una v.a. que toma 2 valores c con probabilidad y con probabilidad . Entonces al hacer crecer n lo que ocurre es que el valor "n" de la v.a. aumenta pero su probabilidad disminuye a una velocidad de (1/n) mientras que la probabilidad de que la v.a. tome el valor c va tendiendo a 1.

Sea una variable aleatoria cuyo índice señala el tamaño de la muestra a partir de la cual dicha variable aleatoria está construida.

Se define convergencia en probabilidad editar

Se dice que la sucesión de variables aleatorias   converge en probabilidad a una constante c si   para cualquier   >0, también se escribe como  .

El resultado anterior, con ayuda de las propiedades de valor absoluto se puede ver como