En teoría de probabilidad y estadística , la distribución geométrica es cualquiera de las dos distribuciones de probabilidad discretas siguientes:
Si
X
=
{
1
,
2
,
…
}
{\displaystyle X=\{1,2,\dots \}}
es el número necesario para obtener un éxito.
Si
X
=
{
0
,
1
,
2
,
…
}
{\displaystyle X=\{0,1,2,\dots \}}
es el número de fracasos antes del primer éxito. Geométrica Parámetros
0
≤
p
≤
1
{\displaystyle 0\leq p\leq 1}
Dominio
x
∈
{
1
,
2
,
…
}
{\displaystyle x\in \{1,2,\dots \}}
Función de densidad (pdf)
p
(
1
−
p
)
x
−
1
{\displaystyle p(1-p)^{x-1}}
Función de distribución (cdf)
1
−
(
1
−
p
)
x
{\displaystyle 1-(1-p)^{x}}
Media
1
p
{\displaystyle {\frac {1}{p}}}
Moda
0 Varianza
1
−
p
p
2
{\displaystyle {\frac {1-p}{p^{2}}}}
Coeficiente de simetría
2
−
p
1
−
p
{\displaystyle {\frac {2-p}{\sqrt {1-p}}}}
Curtosis
6
+
p
2
1
−
p
{\displaystyle 6+{\frac {p^{2}}{1-p}}}
Entropía
−
(
1
−
p
)
log
2
(
1
−
p
)
−
p
log
2
p
p
{\displaystyle {\frac {-(1-p)\log _{2}(1-p)-p\log _{2}p}{p}}}
Función generadora de momentos (mgf)
p
1
−
(
1
−
p
)
e
t
{\displaystyle {\frac {p}{1-(1-p)e^{t}}}}
Si una variable aleatoria discreta
X
{\displaystyle X}
sigue una distribución geométrica con parámetro
0
<
p
<
1
{\displaystyle 0<p<1}
entonces escribiremos
X
∼
Geometrica
(
p
)
{\displaystyle X\sim \operatorname {Geometrica} (p)}
o simplemente
X
∼
Geo
(
p
)
{\displaystyle X\sim \operatorname {Geo} (p)}
.
Función de probabilidad
editar
Si la variable aleatoria discreta
X
{\displaystyle X}
se usa para modelar el número total de intentos hasta obtener el primer éxito en una sucesión de ensayos independientes Bernoulli en donde en cada uno de ellos la probabilidad de éxito es
p
{\displaystyle p}
entonces la función de probabilidad de
X
∼
Geometrica
(
p
)
{\displaystyle X\sim \operatorname {Geometrica} (p)}
es
P
[
X
=
x
]
=
p
(
1
−
p
)
x
−
1
{\displaystyle \operatorname {P} [X=x]=p(1-p)^{x-1}}
para
x
=
1
,
2
,
3
,
…
{\displaystyle x=1,2,3,\dots }
Función de distribución
editar
Si
X
∼
Geometrica
(
p
)
{\displaystyle X\sim \operatorname {Geometrica} (p)}
entonces la función de distribución está dada por
P
[
X
≤
x
]
=
∑
k
=
1
x
p
(
1
−
p
)
k
−
1
=
∑
k
=
0
x
−
1
p
(
1
−
p
)
k
=
p
∑
k
=
0
x
−
1
(
1
−
p
)
k
=
p
(
1
−
(
1
−
p
)
x
−
1
+
1
1
−
(
1
−
p
)
)
=
1
−
(
1
−
p
)
x
{\displaystyle {\begin{aligned}\operatorname {P} [X\leq x]&=\sum _{k=1}^{x}p(1-p)^{k-1}\\&=\sum _{k=0}^{x-1}p(1-p)^{k}\\&=p\sum _{k=0}^{x-1}(1-p)^{k}\\&=p\left({\frac {1-(1-p)^{x-1+1}}{1-(1-p)}}\right)\\&=1-(1-p)^{x}\end{aligned}}}
para
x
=
1
,
2
,
3
,
4
,
…
{\displaystyle x=1,2,3,4,\dots }
Si
X
∼
Geometrica
(
p
)
{\displaystyle X\sim \operatorname {Geometrica} (p)}
considerando que
X
{\displaystyle X}
modela el número de fracasos antes del primer éxito entonces la variable aleatoria
X
{\displaystyle X}
cumple con algunas propiedades:
La media de
X
{\displaystyle X}
, siempre que
X
{\displaystyle X}
modele el número de ensayos hasta obtener el primer éxito,[ 1] está dada por
E
[
X
]
=
1
p
{\displaystyle \operatorname {E} [X]={\frac {1}{p}}}
Demostración
Se demuestra fácilmente si consideramos la definición de esperanza
E
[
X
]
=
def
∑
x
=
1
∞
x
P
r
[
X
=
x
]
=
∑
x
=
1
∞
x
p
(
1
−
p
)
x
−
1
=
q
:=
1
−
p
p
∑
x
=
1
∞
x
q
x
−
1
=
p
∑
x
=
1
∞
d
d
q
(
q
x
)
=
p
d
d
q
(
∑
x
=
1
∞
q
x
)
=
Serie geométrica
{\displaystyle \operatorname {E} [X]{\overset {\text{def}}{=}}\sum _{x=1}^{\infty }xPr[X=x]=\sum _{x=1}^{\infty }xp(1-p)^{x-1}{\overset {q:=1-p}{=}}p\sum _{x=1}^{\infty }xq^{x-1}=p\sum _{x=1}^{\infty }{\frac {\mathrm {d} }{\mathrm {d} q}}\left(q^{x}\right)=p{\frac {\mathrm {d} }{\mathrm {d} q}}\left(\sum _{x=1}^{\infty }q^{x}\right){\overset {\text{Serie geométrica}}{=}}}
=
p
d
d
q
(
q
1
−
q
)
=
p
1
(
1
−
q
)
2
=
q
=
1
−
p
p
1
p
2
=
1
p
{\displaystyle =p{\frac {\mathrm {d} }{\mathrm {d} q}}\left({\frac {q}{1-q}}\right)=p{\frac {1}{(1-q)^{2}}}{\overset {q=1-p}{=}}p{\frac {1}{p^{2}}}={\frac {1}{p}}}
,
donde se consideró la serie geométrica
∑
n
=
0
∞
α
n
=
1
1
−
α
{\displaystyle \sum _{n=0}^{\infty }\alpha ^{n}={\frac {1}{1-\alpha }}}
, si |
α
{\displaystyle \alpha }
|
<
1.
◻
{\displaystyle <1.\quad \square }
La varianza de
X
{\displaystyle X}
está dada por
Var
(
X
)
=
1
−
p
p
2
{\displaystyle \operatorname {Var} (X)={\frac {1-p}{p^{2}}}}
.
Demostración
Tenemos que
Var
[
X
]
=
E
[
X
2
]
−
E
[
X
]
2
=
E
[
X
(
X
−
1
)
+
X
]
−
E
[
X
]
2
=
linealidad
E
[
X
(
X
−
1
)
]
+
E
[
X
]
−
E
[
X
]
2
{\displaystyle \operatorname {Var} [X]=\operatorname {E} [X^{2}]-\operatorname {E} [X]^{2}=\operatorname {E} [X(X-1)+X]-\operatorname {E} [X]^{2}{\overset {\text{linealidad}}{=}}\operatorname {E} [X(X-1)]+\operatorname {E} [X]-\operatorname {E} [X]^{2}}
y
E
[
X
(
X
−
1
)
]
=
∑
x
≥
0
x
(
x
−
1
)
p
(
1
−
p
)
x
−
1
=
p
(
1
−
p
)
∑
x
≥
0
x
(
x
−
1
)
(
1
−
p
)
x
−
2
=
q
:=
1
−
p
p
(
1
−
p
)
∑
x
≥
0
d
2
d
q
2
(
q
x
)
=
{\displaystyle \operatorname {E} [X(X-1)]=\sum _{x\geq 0}^{}{x(x-1)p(1-p)^{x-1}}=p(1-p)\sum _{x\geq 0}^{}{x(x-1)(1-p)^{x-2}}{\overset {q:=1-p}{=}}p(1-p)\sum _{x\geq 0}^{}{{\frac {\mathrm {d} ^{2}}{\mathrm {d} q^{2}}}\left(q^{x}\right)}=}
=
p
(
1
−
p
)
d
2
d
q
2
(
∑
x
≥
0
q
x
)
=
Serie geométrica
p
(
1
−
p
)
d
2
d
q
2
(
q
1
−
q
)
=
p
(
1
−
p
)
d
d
q
(
1
(
1
−
q
)
2
)
{\displaystyle =p(1-p){{\frac {\mathrm {d} ^{2}}{\mathrm {d} q^{2}}}\left(\sum _{x\geq 0}^{}q^{x}\right)}{\overset {\text{Serie geométrica}}{=}}p(1-p){\frac {\mathrm {d} ^{2}}{\mathrm {d} q^{2}}}\left({\frac {q}{1-q}}\right)=p(1-p){\frac {\mathrm {d} }{\mathrm {d} q}}\left({\frac {1}{(1-q)^{2}}}\right)}
=
p
(
1
−
p
)
2
(
1
−
q
)
3
=
q
=
1
−
p
2
(
1
−
p
)
p
2
{\displaystyle =p(1-p){\frac {2}{(1-q)^{3}}}{\overset {q=1-p}{=}}{\frac {2(1-p)}{p^{2}}}}
Por tanto,
Var
[
X
]
=
E
[
X
(
X
−
1
)
]
+
E
[
X
]
−
E
[
X
]
2
=
2
(
1
−
p
)
p
2
+
1
p
−
1
p
2
=
2
(
1
−
p
)
+
p
−
1
p
2
=
1
−
p
p
2
◻
{\displaystyle \operatorname {Var} [X]=\operatorname {E} [X(X-1)]+\operatorname {E} [X]-\operatorname {E} [X]^{2}={\frac {2(1-p)}{p^{2}}}+{\frac {1}{p}}-{\frac {1}{p^{2}}}={\frac {2(1-p)+p-1}{p^{2}}}={\frac {1-p}{p^{2}}}\quad \square }
Función generadora de probabilidad
editar
La función generadora de probabilidad f.g.p está dada por
G
X
(
t
)
=
p
t
1
−
t
(
1
−
p
)
{\displaystyle G_{X}(t)={\frac {pt}{1-t(1-p)}}}
.
si
|
t
|
<
(
1
−
p
)
−
1
{\displaystyle |t|<(1-p)^{-1}}
.
Función generadora de momentos
editar
La función generadora de momentos está dada por
M
X
(
t
)
=
p
e
t
1
−
(
1
−
p
)
e
t
{\displaystyle M_{X}(t)={\frac {pe^{t}}{1-(1-p)e^{t}}}}
si
t
<
−
ln
(
1
−
p
)
{\displaystyle t<-\ln(1-p)}
.
La distribución geométrica tiene la propiedad de pérdida memoria, es decir, para cualesquiera
m
,
n
≥
0
{\displaystyle m,n\geq 0}
P
[
X
>
m
+
n
|
X
>
m
]
=
P
[
X
>
n
]
{\displaystyle \operatorname {P} [X>m+n|X>m]=\operatorname {P} [X>n]}
.
Su distribución análoga, la distribución exponencial , también tiene la propiedad de pérdida de memoria. Esto significa que si intentamos repetir el experimento hasta el primer éxito, entonces, dado que el primer éxito todavía no ha ocurrido, la distribución de condicional del número de ensayos adicionales no depende de cuantos fallos se hayan observado. El dado o la moneda que uno lanza no tiene "memoria" de estos fallos.
La distribución geométrica es la única distribución discreta que tiene la propiedad de pérdida de memoria.
Distribuciones relacionadas
editar
La distribución geométrica
Y
{\displaystyle Y}
es un caso particular de la distribución binomial negativa con parámetro
k
=
1
{\displaystyle k=1}
. Más generalmente, si
Y
1
,
Y
2
,
…
,
Y
k
{\displaystyle Y_{1},Y_{2},\dots ,Y_{k}}
son variables aleatorias independientes distribuidas geométricamente con parámetro
p
{\displaystyle p}
entonces
Z
=
∑
m
=
1
k
Y
m
∼
BN
(
k
,
p
)
{\displaystyle Z=\sum _{m=1}^{k}Y_{m}\sim \operatorname {BN} (k,p)}
es decir,
Z
{\displaystyle Z}
sigue a una distribución binomial negativa con parámetros
k
{\displaystyle k}
y
p
{\displaystyle p}
.
Si
Y
1
,
Y
2
,
…
,
Y
r
{\displaystyle Y_{1},Y_{2},\dots ,Y_{r}}
son variables aleatorias independientes distribuidas geométricamente (con diferentes parámetros de éxito pm posibles ), entonces su mínimo
W
=
min
m
Y
m
{\displaystyle W=\min _{m}Y_{m}}
también está geométricamente distribuido con parámetro
p
=
1
−
∏
m
(
1
−
p
m
)
{\displaystyle p=1-\prod _{m}(1-p_{m})}
.
↑ Ross, Sheldon (2009). A First Course in Probability (8th edición). Pearson. p. 545. ISBN 0-13-603313-X .