En teoría de probabilidad y estadística , la distribución F , también conocida como distribución de Fisher-Snedecor (nombrada por Ronald Fisher y George Snedecor ), es una distribución de probabilidad continua , aparece frecuentemente como la distribución nula de una prueba estadística, especialmente en el análisis de varianza .
Fisher-Snedecor
Función de densidad de probabilidad
Función de distribución de probabilidad Parámetros
m , n > 0 {\displaystyle m,n>0} grados de libertad Dominio
x ∈ [ 0 , ∞ ) {\displaystyle x\in [0,\infty )\!} Función de densidad (pdf)
( m x ) m n n ( m x + n ) m + n x B ( m 2 , n 2 ) {\displaystyle {\frac {\sqrt {\frac {(mx)^{m}n^{n}}{(mx+n)^{m+n}}}}{x\,\mathrm {B} \!\left({\frac {m}{2}},{\frac {n}{2}}\right)}}\!} Función de distribución (cdf)
I m x m x + n ( m / 2 , n / 2 ) {\displaystyle I_{\frac {mx}{mx+n}}(m/2,n/2)\!} Media
n n − 2 {\displaystyle {\frac {n}{n-2}}\!} para n > 2 {\displaystyle n>2} Moda
m − 2 m n n + 2 {\displaystyle {\frac {m-2}{m}}\;{\frac {n}{n+2}}\!} para m > 2 {\displaystyle m>2} Varianza
2 n 2 ( m + n − 2 ) m ( n − 2 ) 2 ( n − 4 ) {\displaystyle {\frac {2\,n^{2}\,(m+n-2)}{m(n-2)^{2}(n-4)}}\!} para n > 4 {\displaystyle n>4} Coeficiente de simetría
( 2 m + n − 2 ) 8 ( n − 4 ) ( n − 6 ) m ( m + n − 2 ) {\displaystyle {\frac {(2m+n-2){\sqrt {8(n-4)}}}{(n-6){\sqrt {m(m+n-2)}}}}\!} para n > 6 {\displaystyle n>6}
Sean U {\displaystyle U} y V {\displaystyle V} variables aleatorias independientes tales que U ∼ χ m 2 {\displaystyle U\sim \chi _{m}^{2}} y V ∼ χ n 2 {\displaystyle V\sim \chi _{n}^{2}} , esto es U {\displaystyle U} y V {\displaystyle V} siguen una distribución chi-cuadrado con m {\displaystyle m} y n {\displaystyle n} grados de libertad respectivamente entonces la variable aleatoria
U / m V / n ∼ F m , n {\displaystyle {\frac {U/m}{V/n}}\sim F_{m,n}} donde F m , n {\displaystyle F_{m,n}} denota la distribución F {\displaystyle F} con m {\displaystyle m} y n {\displaystyle n} grados de libertad.
Demostración
editar
Utilizaremos el teorema del cambio de variable, definimos
X := U / m V / n y Y := V {\displaystyle X:={\frac {U/m}{V/n}}\qquad {\mbox{y}}\qquad Y:=V} La función de densidad conjunta de U {\displaystyle U} y V {\displaystyle V} está dada por
f U , V ( u , v ) = f U ( u ) f V ( v ) = ( 1 2 ) m / 2 Γ ( m 2 ) u m 2 − 1 e − u 2 ( 1 2 ) n / 2 Γ ( n 2 ) v n 2 − 1 e − v 2 = ( 1 2 ) m + n 2 Γ ( m 2 ) Γ ( n 2 ) u m 2 − 1 v n 2 − 1 e − u + v 2 {\displaystyle {\begin{aligned}f_{U,V}(u,v)&=f_{U}(u)f_{V}(v)\\&={\frac {\left({\frac {1}{2}}\right)^{m/2}}{\Gamma \left({\frac {m}{2}}\right)}}u^{{\frac {m}{2}}-1}e^{-{\frac {u}{2}}}{\frac {\left({\frac {1}{2}}\right)^{n/2}}{\Gamma \left({\frac {n}{2}}\right)}}v^{{\frac {n}{2}}-1}e^{-{\frac {v}{2}}}\\&={\frac {\left({\frac {1}{2}}\right)^{\frac {m+n}{2}}}{\Gamma \left({\frac {m}{2}}\right)\Gamma \left({\frac {n}{2}}\right)}}u^{{\frac {m}{2}}-1}v^{{\frac {n}{2}}-1}e^{-{\frac {u+v}{2}}}\end{aligned}}} como U = m n X Y {\textstyle U={\frac {m}{n}}XY} y V = Y {\displaystyle V=Y} entonces el Jacobiano de la transformación está dado por
J = | m n y m n x 0 1 | = m n y {\displaystyle J=\left|{\begin{matrix}{\frac {m}{n}}y&{\frac {m}{n}}x\\0&1\end{matrix}}\right|={\frac {m}{n}}y} La función de densidad conjunta de ( X , Y ) {\displaystyle (X,Y)} está determinada por
f X , Y ( x , y ) = m n y ( 1 2 ) m + n 2 Γ ( m 2 ) Γ ( n 2 ) ( m n x y ) m 2 − 1 y n 2 − 1 e − 1 2 ( m n x + 1 ) y = ( 1 2 ) m + n 2 Γ ( m 2 ) Γ ( n 2 ) ( m n ) m 2 x m 2 − 1 y m + n 2 − 1 e − 1 2 ( m n x + 1 ) y {\displaystyle {\begin{aligned}f_{X,Y}(x,y)&={\frac {m}{n}}y\,{\frac {\left({\frac {1}{2}}\right)^{\frac {m+n}{2}}}{\Gamma \left({\frac {m}{2}}\right)\Gamma \left({\frac {n}{2}}\right)}}\left({\frac {m}{n}}xy\right)^{{\frac {m}{2}}-1}y^{{\frac {n}{2}}-1}e^{-{\frac {1}{2}}({\frac {m}{n}}x+1)y}\\&={\frac {\left({\frac {1}{2}}\right)^{\frac {m+n}{2}}}{\Gamma \left({\frac {m}{2}}\right)\Gamma \left({\frac {n}{2}}\right)}}\left({\frac {m}{n}}\right)^{\frac {m}{2}}x^{{\frac {m}{2}}-1}y^{{\frac {m+n}{2}}-1}e^{-{\frac {1}{2}}({\frac {m}{n}}x+1)y}\end{aligned}}} y como la densidad marginal de X {\displaystyle X} está dada por
f X ( x ) = ∫ R f X , Y ( x , y ) d y {\displaystyle f_{X}(x)=\int _{\mathbb {R} }f_{X,Y}(x,y)dy} entonces
f X ( x ) = ( 1 2 ) m + n 2 Γ ( m 2 ) Γ ( n 2 ) ( m n ) m 2 x m 2 − 1 ∫ 0 ∞ y m + n 2 − 1 e − 1 2 ( m n x + 1 ) y d y = ( 1 2 ) m + n 2 Γ ( m 2 ) Γ ( n 2 ) ( m n ) m 2 x m 2 − 1 Γ ( m + n 2 ) [ 1 2 ( m n x + 1 ) ] m + n 2 = Γ ( m + n 2 ) Γ ( m 2 ) Γ ( n 2 ) ( m n ) m 2 x m − 2 2 ( m n x + 1 ) m + n 2 {\displaystyle {\begin{aligned}f_{X}(x)&={\frac {\left({\frac {1}{2}}\right)^{\frac {m+n}{2}}}{\Gamma \left({\frac {m}{2}}\right)\Gamma \left({\frac {n}{2}}\right)}}\left({\frac {m}{n}}\right)^{\frac {m}{2}}x^{{\frac {m}{2}}-1}\int _{0}^{\infty }y^{{\frac {m+n}{2}}-1}e^{-{\frac {1}{2}}({\frac {m}{n}}x+1)y}dy\\&={\frac {\left({\frac {1}{2}}\right)^{\frac {m+n}{2}}}{\Gamma \left({\frac {m}{2}}\right)\Gamma \left({\frac {n}{2}}\right)}}\left({\frac {m}{n}}\right)^{\frac {m}{2}}x^{{\frac {m}{2}}-1}{\frac {\Gamma \left({\frac {m+n}{2}}\right)}{\left[{\frac {1}{2}}({\frac {m}{n}}x+1)\right]^{\frac {m+n}{2}}}}\\&={\frac {\Gamma \left({\frac {m+n}{2}}\right)}{\Gamma \left({\frac {m}{2}}\right)\Gamma \left({\frac {n}{2}}\right)}}\left({\frac {m}{n}}\right)^{\frac {m}{2}}{\frac {x^{\frac {m-2}{2}}}{\left({\frac {m}{n}}x+1\right)^{\frac {m+n}{2}}}}\\\end{aligned}}} que corresponde a la función de densidad de una variable aleatoria con distribución F {\displaystyle F} , por lo tanto
U / m V / n ∼ F m , n {\displaystyle {\frac {U/m}{V/n}}\sim F_{m,n}} A partir de una muestra con distribución normal
editar
Sean X 1 , X 2 , … , X m + 1 {\displaystyle X_{1},X_{2},\dots ,X_{m+1}} una muestra aleatoria de la distribución N ( μ x , σ x 2 ) {\displaystyle N(\mu _{x},\sigma _{x}^{2})} y Y 1 , Y 2 , … , Y n + 1 {\displaystyle Y_{1},Y_{2},\dots ,Y_{n+1}} una muestra aleatoria de la distribución N ( μ y , σ y 2 ) {\displaystyle N(\mu _{y},\sigma _{y}^{2})} donde ambas muestras son independientes entre sí, se tiene que
X ¯ = ∑ i = 1 m + 1 X i m + 1 y Y ¯ = ∑ j = 1 n + 1 Y j n + 1 {\displaystyle {\bar {X}}=\sum _{i=1}^{m+1}{\frac {X_{i}}{m+1}}\qquad {\mbox{y}}\qquad {\bar {Y}}=\sum _{j=1}^{n+1}{\frac {Y_{j}}{n+1}}} S X 2 = ∑ i = 1 m + 1 ( X i − X ¯ ) 2 m y S Y 2 = ∑ j = 1 n + 1 ( Y i − Y ¯ ) 2 n {\displaystyle S_{X}^{2}=\sum _{i=1}^{m+1}{\frac {\left(X_{i}-{\bar {X}}\right)^{2}}{m}}\qquad {\mbox{y}}\qquad S_{Y}^{2}=\sum _{j=1}^{n+1}{\frac {\left(Y_{i}-{\bar {Y}}\right)^{2}}{n}}} entonces
m S X 2 σ X 2 ∼ χ m 2 y n S Y 2 σ Y 2 ∼ χ n 2 {\displaystyle {\frac {mS_{X}^{2}}{\sigma _{X}^{2}}}\sim \chi _{m}^{2}\qquad {\mbox{y}}\qquad {\frac {nS_{Y}^{2}}{\sigma _{Y}^{2}}}\sim \chi _{n}^{2}} y por el teorema anterior
S X 2 / σ X 2 S Y 2 / σ Y 2 ∼ F m , n {\displaystyle {\frac {S_{X}^{2}/\sigma _{X}^{2}}{S_{Y}^{2}/\sigma _{Y}^{2}}}\sim F_{m,n}} Distribuciones Relacionadas
editar
Si X ∼ F m , n {\displaystyle X\sim F_{m,n}} entonces Y = lim n → ∞ m X {\displaystyle Y=\lim _{n\to \infty }mX} tiene una distribución chi cuadrada χ m 2 {\displaystyle \chi _{m}^{2}} .
Si X ∼ χ m 2 {\displaystyle X\sim \chi _{m}^{2}} y Y ∼ χ n 2 {\displaystyle Y\sim \chi _{n}^{2}} son independientes entonces X / m Y / n ∼ F m , n {\displaystyle {\frac {X/m}{Y/n}}\sim F_{m,n}} .
Si X ∼ Beta ( α 2 , β 2 ) {\displaystyle X\sim \operatorname {Beta} \left({\frac {\alpha }{2}},{\frac {\beta }{2}}\right)} entonces β X α ( 1 − X ) ∼ F α , β {\displaystyle {\frac {\beta X}{\alpha (1-X)}}\sim F_{\alpha ,\beta }} .
Si X ∼ F m , n {\displaystyle X\sim F_{m,n}} entonces X − 1 ∼ F n , m {\displaystyle X^{-1}\sim F_{n,m}} .
Si X ∼ t ( n ) {\displaystyle X\sim t_{(n)}} — Distribución t de Student — entonces : X 2 ∼ F 1 , n {\displaystyle X^{2}\sim F_{1,n}}
Si X ∼ Γ ( α 1 , β 1 ) {\displaystyle X\sim \Gamma (\alpha _{1},\beta _{1})} y Y ∼ Γ ( α 2 , β 2 ) {\displaystyle Y\sim \Gamma (\alpha _{2},\beta _{2})} son independientes entonces α 2 β 1 X α 1 β 2 Y ∼ F 2 α 1 , 2 α 2 {\displaystyle {\frac {\alpha _{2}\beta _{1}X}{\alpha _{1}\beta _{2}Y}}\sim F_{2\alpha _{1},2\alpha _{2}}} . Enlaces externos
editar