Definición

editar

En Teoría de la probabilidad, una sucesión de variables aleatorias   converge de forma casi segura (o casi seguramente) a una variable aleatoria límite   cuando el conjunto de sucesos   tales que   es el límite de la sucesión   tiene probabilidad 1.

Otras formas de convergencia

editar

Otras formas de convergencia son:

Si una sucesión de variables aleatorias converge de forma casi segura, también lo hará en probabilidad y en distribución.

Véase también

editar