Distribución binomial de Poisson

En teoría de la probabilidad y estadística, la distribución binomial de Poisson es la distribución de probabilidad discreta del número de éxitos en una secuencia de n ensayos de Bernoulli independientes. Su denominación es en honor al físico y matemático francés Siméon Denis Poisson.

El resultado de un ensayo es una variable aleatoria de distribución de Bernoulli -cada una con su respectiva probabilidad de éxito . La variable aleatoria de distribución binomial de Poisson es la suma de las n variables aleatorias de distribución de Bernoulli.

La distribución binomial es un caso especial de la distribución binomial de Poisson, donde la probabilidad de éxito es la misma en todos los ensayos, es decir .

Media y la varianza editar

La media y la varianza de la variable aleatoria de distribución binomial de Poisson es igual a la suma de las medias y las varianzas de las n distribuciones de Bernoulli respectivamente:

 
 

Para un mismo valor de la media ( ) y tamaño (n), la varianza es máxima cuando todas las probabilidades de éxito son iguales, lo que corresponde a una distribución binomial. Cuando n es suficientemente grande y todos los valores de  son pequeños, la distribución de Poisson es una buena aproximación de la distribución binomial de Poisson. La varianza de la distribución de Poisson establece el límite superior de la varianza de la distribución binomial de Poisson cuando n tiende a infinito y tienen misma la media ( ).

Función de probabilidad editar

La probabilidad de obtener k éxitos de un total de n ensayos puede representarse como la suma:[1]

 

donde   es el conjunto de todos los subconjuntos de k enteros que se pueden seleccionar. Por ejemplo, sea S = {1,2,3,...,n}, si n = 3 entonces  .  es un subconjunto de S y  es el complemento de   respecto de S.

  contiene  elementos en la sumatoria, lo cual limita el cálculo de la función en la práctica incluso para números de ensayos n moderados (ejemplo, si n=40,  contiene más de 1010 elementos). Sin embargo, hay otras maneras más eficientes de calcular  .

Mientras ninguna de las probabilidades de éxito sea igual a uno, se puede calcular la probabilidad de k éxitos usando la fórmula recurrente[2][3]

 

donde

 

La fórmula recurrente no es numéricamente estable, y debe evitarse si n es mayor que aproximadamente 20. Otra posibilidad es usar la transformada discreta de Fourier.[4]


 

donde   ;  .

Otros métodos se describen en[5]

Entropía editar

No existe una fórmula simple para la entropía de una distribución binomial de Poisson, pero la entropía está limitada por la entropía de una distribución binomial con el mismo parámetro numérico y la misma media. Por lo tanto, la entropía también está limitada por la entropía de una distribución de Poisson con la misma media. [6]

La conjetura de Shepp-Olkin, creada por Lawrence Shepp e Ingram Olkin en 1981, establece que la entropía de una distribución binomial de Poisson es una función cóncava con probabilidades de éxito.  .[7]​ Esta conjetura fue probada por Erwan Hillion y Oliver Johnson en 2015.[8]

Referencias editar

  1. Wang, Y. H. (1993). «On the number of successes in independent trials». Statistica Sinica 3 (2): 295-312. 
  2. Shah, B. K. (1994). «On the distribution of the sum of independent integer valued random variables». American Statistician 27 (3): 123-124. JSTOR 2683639. 
  3. Chen, X. H.; A. P. Dempster; J. S. Liu (1994). «Weighted finite population sampling to maximize entropy». Biometrika 81 (3): 457. doi:10.1093/biomet/81.3.457. 
  4. Fernandez, M.; S. Williams (2010). «Closed-Form Expression for the Poisson-Binomial Probability Density Function». IEEE Transactions on Aerospace Electronic Systems 46 (2): 803-817. doi:10.1109/TAES.2010.5461658. 
  5. Chen, S. X.; J. S. Liu (1997). «Statistical Applications of the Poisson-Binomial and conditional Bernoulli distributions». Statistica Sinica 7: 875-892. 
  6. Harremoës, P. (2001). «Binomial and Poisson distributions as maximum entropy distributions». IEEE Transactions on Information Theory 47 (5): 2039-2041. doi:10.1109/18.930936. 
  7. Shepp, Lawrence; Olkin, Ingram (1981). «Entropy of the sum of independent Bernoulli random variables and of the multinomial distribution». En J. Gani; V.K. Rohatgi, eds. Contributions to probability: A collection of papers dedicated to Eugene Lukacs. New York: Academic Press. pp. 201-206. ISBN 0-12-274460-8. MR 0618689. 
  8. Hillion, Erwan; Johnson, Oliver (5 de marzo de 2015). «A proof of the Shepp-Olkin entropy concavity conjecture». Bernoulli 23: 3638-3649. arXiv:1503.01570. doi:10.3150/16-BEJ860.