En teoría de la probabilidad, existen diferentes nociones de convergencia de variables aleatorias. La convergencia de sucesiones de variables aleatorias a una variable aleatoria límite es un concepto importante en teoría de la probabilidad, y en sus aplicaciones a la estadística y los procesos estocásticos.
Convergencia en distribución
editar
Definición
editar
Se dice que una sucesión de variables aleatorias reales converge en distribución, o converge en ley, o converge débilmente, a una variable aleatoria si
La convergencia en distribución puede indicarse como:
(1)
donde es la ley (distribución de probabilidad) de X. Por ejemplo, si X es una gausiana típica o normal estándar se puede escribir .
Convergencia en probabilidad
editar
Definición
editar
Una sucesión de variables aleatorias reales converge en probabilidad a una variable aleatoria si para todo
Suele indicarse de alguna de estas maneras:
(2)
Convergencia casi segura
editar
Definición
editar
Una sucesión de variables aleatorias reales converge casi seguramente, o con probabilidad 1, a una variable aleatoria si
Notación:
(3)
Convergencia en
editar
Definición
editar
Dado un número real , se dice que la sucesión de variables aleatorias reales converge en a la variable aleatoria , si los momentos absolutos -ésimos y de y de existen, y