En teoría de la probabilidad y en estadística , la distribución ji al cuadrado (también llamada distribución de Pearson o distribución
χ
2
{\displaystyle \chi ^{2}}
) con
k
∈
N
{\displaystyle k\in \mathbb {N} }
grados de libertad es la distribución de la suma del cuadrado de
k
{\displaystyle k}
variables aleatorias independientes con distribución normal estándar . La distribución chi cuadrada es un caso especial de la distribución gamma y es una de las distribuciones de probabilidad más usadas en Inferencia Estadística , principalmente en pruebas de hipótesis y en la construcción de intervalos de confianza .
Distribución χ² (ji al cuadrado)
Función de densidad de probabilidad
Función de distribución de probabilidad Parámetros
k
∈
N
{\displaystyle k\in \mathbb {N} \,}
grados de libertad Dominio
x
∈
(
0
,
+
∞
)
{\displaystyle x\in (0,+\infty )}
Función de densidad (pdf)
(
1
/
2
)
k
/
2
Γ
(
k
/
2
)
x
k
/
2
−
1
e
−
x
/
2
{\displaystyle {\frac {(1/2)^{k/2}}{\Gamma (k/2)}}x^{k/2-1}e^{-x/2}\,}
Función de distribución (cdf)
γ
(
k
/
2
,
x
/
2
)
Γ
(
k
/
2
)
{\displaystyle {\frac {\gamma (k/2,x/2)}{\Gamma (k/2)}}\,}
Media
k
{\displaystyle k\,}
Mediana
aproximadamente
k
−
2
/
3
{\displaystyle k-2/3\,}
Moda
k
−
2
{\displaystyle k-2\,}
si
k
≥
2
{\displaystyle k\geq 2\,}
Varianza
2
k
{\displaystyle 2\,k\,}
Coeficiente de simetría
8
/
k
{\displaystyle {\sqrt {8/k}}\,}
Curtosis
3
+
12
/
k
{\displaystyle 3+12/k\,}
Entropía
k
2
+
ln
(
2
Γ
(
k
/
2
)
)
+
(
1
−
k
/
2
)
ψ
(
k
/
2
)
{\displaystyle {\frac {k}{2}}\!+\!\ln(2\Gamma (k/2))\!+\!(1\!-\!k/2)\psi (k/2)}
Función generadora de momentos (mgf)
(
1
−
2
t
)
−
k
/
2
{\displaystyle (1-2t)^{-k/2}}
para
2
t
<
1
{\displaystyle 2t<1\,}
Función característica
(
1
−
2
i
t
)
−
k
/
2
{\displaystyle (1-2it)^{-k/2}\,}
Como la suma de normales estándar Editar
Sean
Z
1
,
…
,
Z
k
{\displaystyle Z_{1},\dots ,Z_{k}}
variables aleatorias independientes tales que
Z
i
∼
N
(
0
,
1
)
{\displaystyle Z_{i}\sim N(0,1)}
para
i
=
1
,
2
,
…
,
k
{\displaystyle i=1,2,\dots ,k}
entonces la variable aleatoria
X
{\displaystyle X}
definida por
X
=
Z
1
2
+
Z
2
2
+
⋯
+
Z
k
2
=
∑
i
=
1
k
Z
i
2
{\displaystyle {\begin{aligned}X&=Z_{1}^{2}+Z_{2}^{2}+\cdots +Z_{k}^{2}\\&=\sum _{i=1}^{k}Z_{i}^{2}\end{aligned}}}
tiene una distribución chi cuadrada con
k
{\displaystyle k}
grados de libertad.
Si la variable aleatoria continua
X
{\displaystyle X}
tiene una distribución Chi Cuadrada con
k
{\displaystyle k}
grados de libertad entonces escribiremos
X
∼
χ
k
2
{\displaystyle X\sim \chi _{k}^{2}}
o
X
∼
χ
2
(
k
)
{\displaystyle X\sim \chi ^{2}(k)}
.
Función de Densidad Editar
Si
X
∼
χ
k
2
{\displaystyle X\sim \chi _{k}^{2}}
entonces la función de densidad de la variable aleatoria
X
{\displaystyle X}
es
f
X
(
x
)
=
(
1
2
)
k
2
Γ
(
k
2
)
x
k
2
−
1
e
−
x
/
2
{\displaystyle f_{X}(x)={\frac {\left({\frac {1}{2}}\right)^{\frac {k}{2}}}{\Gamma \left({\frac {k}{2}}\right)}}\,x^{{\frac {k}{2}}-1}e^{-x/2}}
para
x
>
0
{\displaystyle x>0}
donde
Γ
{\displaystyle \Gamma }
es la función gamma .
Función de Distribución Acumulada Editar
Si
X
∼
χ
k
2
{\displaystyle X\sim \chi _{k}^{2}}
entonces su función de distribución está dada por
F
X
(
x
)
=
γ
(
k
2
,
x
2
)
Γ
(
k
2
)
{\displaystyle F_{X}(x)={\frac {\gamma \left({\frac {k}{2}},{\frac {x}{2}}\right)}{\Gamma \left({\frac {k}{2}}\right)}}}
donde
γ
(
k
,
z
)
{\displaystyle \gamma (k,z)}
es la función gamma incompleta .
En particular cuando
k
=
2
{\displaystyle k=2}
entonces esta función toma la forma
F
X
(
x
)
=
1
−
e
−
x
/
2
{\displaystyle F_{X}(x)=1-e^{-x/2}}
Sea
X
1
,
…
,
X
n
{\displaystyle X_{1},\dots ,X_{n}}
una muestra aleatoria proveniente de una población con distribución
N
(
μ
,
σ
2
)
{\displaystyle N(\mu ,\sigma ^{2})}
entonces
X
¯
{\displaystyle {\overline {X}}}
y el vector
(
X
1
−
X
¯
,
…
,
X
n
−
X
¯
)
{\displaystyle \left(X_{1}-{\overline {X}},\dots ,X_{n}-{\overline {X}}\right)}
son independientes.
X
¯
{\displaystyle {\overline {X}}}
y
S
2
{\displaystyle S^{2}}
son independientes.
(
n
−
1
)
S
2
σ
2
∼
χ
n
−
1
2
{\displaystyle {\frac {(n-1)S^{2}}{\sigma ^{2}}}\sim \chi _{n-1}^{2}}
.
E
[
S
2
]
=
σ
2
{\displaystyle \operatorname {E} [S^{2}]=\sigma ^{2}}
y
Var
(
S
2
)
=
2
σ
4
n
−
1
{\displaystyle \operatorname {Var} (S^{2})={\frac {2\sigma ^{4}}{n-1}}}
.donde
X
¯
=
1
n
∑
i
=
1
n
X
i
{\displaystyle {\overline {X}}={\frac {1}{n}}\sum _{i=1}^{n}X_{i}}
y
S
2
=
1
n
−
1
∑
i
=
1
n
(
X
i
−
X
¯
)
2
{\displaystyle S^{2}={\frac {1}{n-1}}\sum _{i=1}^{n}\left(X_{i}-{\overline {X}}\right)^{2}}
son la media y varianza de la muestra aleatoria respectivamente.
Intervalos de confianza para muestras de la distribución normal Editar
Intervalo para la varianza Editar
Sean
X
1
,
…
,
X
n
{\displaystyle X_{1},\dots ,X_{n}}
una muestra aleatoria proveniente de una población con distribución
N
(
μ
,
σ
2
)
{\displaystyle N(\mu ,\sigma ^{2})}
donde
μ
{\displaystyle \mu }
y
σ
2
{\displaystyle \sigma ^{2}}
son desconocidos.
Se tiene que
(
n
−
1
)
S
2
σ
2
∼
χ
n
−
1
2
{\displaystyle {\frac {(n-1)S^{2}}{\sigma ^{2}}}\sim \chi _{n-1}^{2}}
Sean
χ
n
−
1
,
α
/
2
,
χ
n
−
1
,
1
−
α
/
2
∈
R
{\displaystyle \chi _{n-1,\alpha /2},\chi _{n-1,1-\alpha /2}\in \mathbb {R} }
tales que
P
[
χ
n
−
1
,
α
/
2
<
Y
<
χ
n
−
1
,
1
−
α
/
2
]
=
1
−
α
{\displaystyle \operatorname {P} [\chi _{n-1,\alpha /2}<Y<\chi _{n-1,1-\alpha /2}]=1-\alpha }
siendo
Y
∼
χ
n
−
1
2
{\displaystyle Y\sim \chi _{n-1}^{2}}
entonces
P
[
χ
n
−
1
,
α
/
2
<
(
n
−
1
)
S
2
σ
2
<
χ
n
−
1
,
1
−
α
/
2
]
=
1
−
α
P
[
1
χ
n
−
1
,
α
/
2
>
σ
2
(
n
−
1
)
S
2
>
1
χ
n
−
1
,
1
−
α
/
2
]
=
1
−
α
P
[
(
n
−
1
)
S
2
χ
n
−
1
,
1
−
α
/
2
<
σ
2
<
(
n
−
1
)
S
2
χ
n
−
1
,
α
/
2
]
=
1
−
α
{\displaystyle {\begin{aligned}&\operatorname {P} \left[\chi _{n-1,\alpha /2}<{\frac {(n-1)S^{2}}{\sigma ^{2}}}<\chi _{n-1,1-\alpha /2}\right]=1-\alpha \\&\operatorname {P} \left[{\frac {1}{\chi _{n-1,\alpha /2}}}>{\frac {\sigma ^{2}}{(n-1)S^{2}}}>{\frac {1}{\chi _{n-1,1-\alpha /2}}}\right]=1-\alpha \\&\operatorname {P} \left[{\frac {(n-1)S^{2}}{\chi _{n-1,1-\alpha /2}}}<\sigma ^{2}<{\frac {(n-1)S^{2}}{\chi _{n-1,\alpha /2}}}\right]=1-\alpha \end{aligned}}}
por lo tanto un intervalo de
(
1
−
α
)
100
%
{\displaystyle (1-\alpha )100\%}
de confianza para
σ
2
{\displaystyle \sigma ^{2}}
está dado por
(
(
n
−
1
)
S
2
χ
n
−
1
,
1
−
α
/
2
,
(
n
−
1
)
S
2
χ
n
−
1
,
α
/
2
)
{\displaystyle \left({\frac {(n-1)S^{2}}{\chi _{n-1,1-\alpha /2}}},{\frac {(n-1)S^{2}}{\chi _{n-1,\alpha /2}}}\right)}
Distribuciones Relacionadas Editar
La distribución
χ
2
{\displaystyle \chi ^{2}}
con
k
{\displaystyle k}
grados de libertad es un caso particular de la distribución gamma pues si
X
∼
Γ
(
k
2
,
1
2
)
{\displaystyle X\sim \Gamma \left({\frac {k}{2}},{\frac {1}{2}}\right)}
entonces
X
∼
χ
k
2
{\displaystyle X\sim \chi _{k}^{2}}
.
lim
k
→
∞
χ
k
2
(
x
)
k
=
N
(
1
,
2
/
k
)
(
x
)
{\displaystyle \lim _{k\to \infty }{\frac {\chi _{k}^{2}(x)}{k}}=N_{(1,{\sqrt {2/k}})}(x)}
La distribución χ² tiene muchas aplicaciones en inferencia estadística . La más conocida es la denominada prueba χ² , utilizada como prueba de independencia y como prueba de buen ajuste y en la estimación de varianzas. Pero también está involucrada en el problema de estimar la media de una población normalmente distribuida y en el problema de estimar la pendiente de una recta de regresión lineal , a través de su papel en la distribución t de Student .
Aparece también en todos los problemas de análisis de varianza por su relación con la distribución F de Snedecor, que es la distribución del cociente de dos variables aleatorias independientes con distribución χ².
Véase esto también
Véase también Editar
Enlaces externos Editar