Ley de los grandes números
En la teoría de la probabilidad, bajo el término genérico de ley de los grandes números se engloban varios teoremas que describen el comportamiento del promedio de una sucesión de variables aleatorias conforme aumenta su número de ensayos.
Estos teoremas prescriben condiciones suficientes para garantizar que dicho promedio converja (en los sentidos explicados abajo) al promedio de las esperanzas de las variables aleatorias involucradas. Las distintas formulaciones de la ley de los grandes números (y sus condiciones asociadas) especifican la convergencia de formas distintas.
Las leyes de los grandes números explican por qué el promedio de una muestra al azar de una población de gran tamaño tenderá a estar cerca de la media de la población completa.
Cuando las variables aleatorias tienen una varianza finita, el teorema central del límite extiende nuestro entendimiento de la convergencia de su promedio describiendo la distribución de diferencias estandarizadas entre la suma de variables aleatorias y el valor esperado de esta suma: sin importar la distribución subyacente de las variables aleatorias, esta diferencia estandarizada converge a una variable aleatoria normal estándar.
La frase "ley de los grandes números" es también usada ocasionalmente para referirse al principio de que la probabilidad de que cualquier evento posible (incluso uno improbable) ocurra al menos una vez en una serie aumenta con el número de eventos en la serie. Por ejemplo, la probabilidad de que un individuo gane la lotería es bastante baja; sin embargo, la probabilidad de que alguien gane la lotería es bastante alta, suponiendo que suficientes personas comprasen boletos de lotería.
Historia
editarEl matemático italiano Gerolamo Cardano (1501–1576) afirmó sin pruebas que la precisión de las estadísticas empíricas tienden a mejorar con el número de intentos.[1] Después esto fue formalizado como una ley de los grandes números. Una forma especial de la ley (para una variable aleatoria binaria) fue demostrada por primera vez por Jacob Bernoulli.[2] Le llevó más de 20 años desarrollar una prueba matemática suficientemente rigurosa que fue publicada en su Ars Conjectandi [El arte de la conjetura] en 1713. Bernouilli le llamó su «Teorema dorado», pero llegó a ser conocido generalmente como «teorema de Bernoulli". Este no debe confundirse con el principio físico de igual nombre, el nombre del sobrino de Jacob, Daniel Bernoulli. En 1837, S.D. Poisson describió con más detalle bajo el nombre de «la loi des grands nombres» (la ley de los grandes números).[3][4] A partir de entonces, se conoce con ambos nombres, pero se utiliza con mayor frecuencia la «ley de los grandes números».
Después de que Bernoulli y Poisson publicasen sus esfuerzos, otros matemáticos también contribuyeron al refinamiento de la ley, como Chebyshev,[5] Markov, Borel, Cantelli y Kolmogorov y Khinchin, que finalmente proporcionó una prueba completa de la ley de los grandes números para variables arbitrarias.[6] Estos nuevos estudios han dado lugar a dos formas prominentes de la ley de los grandes números: una se llama la ley "débil" y la otra la ley "fuerte", en referencia a dos modos diferentes de convergencia de la muestra acumulada significa el valor esperado; en particular, como se explica a continuación, la forma fuerte implica la débil.[6]
Ley débil
editarLa ley débil de los grandes números establece que si es una sucesión infinita de variables aleatorias independientes que tienen el mismo valor esperado y varianza entonces el promedio
converge en probabilidad a , en otras palabras, para cualquier número positivo se tiene
Ley fuerte
editarLa ley fuerte de los grandes números establece que si es una sucesión infinita de variables aleatorias independientes e idénticamente distribuidas que cumplen y tienen el valor esperado entonces
es decir, el promedio de las variables aleatorias converge a casi seguramente (en un conjunto de probabilidad 1).
Esta ley justifica la interpretación intuitiva del valor esperado de una variable aleatoria como el "promedio a largo plazo al hacer un muestreo repetitivo".
Para demostrar el teorema haremos uso del siguiente lema:
Desigualdad Maximal. Sean variables aleatorias independientes y sean y constantes positivas que cumplen para cada i. Luego
Demostración del lema: Sean y . Definamos asimismo la variable aleatoria
Tenemos entonces:
Ahora bien, si y entonces implica que por ende:
con lo que se concluye el lema. (Fin demostración del lema)
Sigamos con la demostración del teorema: Definamos
Tenemos entonces que la serie es convergente pues:
La convergencia c.t.p. que asegura el teorema es equivalente a:
Por el lema de Borel-Cantelli, es suficiente demostrar que, para todo
( 1)
Cada probabilidad en la suma anterior puede ser acotada por:
Ahora se aplica la desigualdad maximal:
La última desigualdad de la línea anterior se justifica por la desigualdad de Chebyshev. Una nueva aplicación de esta misma desigualdad nos permite acotar los :
Es decir, hemos logrado acotar cada sumando de la (
) por una constante por los términos de una sumatoria que sabemos convergente, demostrando la convergencia de dicha sumatoria y concluyendo vía Borel-Cantelli la convergencia fuerte del teorema.(Fin de la demostración)
Definamos y . Tenemos que . Además, usando la hipótesis de distribuciones idénticas, podemos en general reemplazar (no siempre) una distribución genérica por un representante, digamos . Tenemos entonces:
(1)
La última convergencia a cero viene dada por la convergencia puntual más convergencia dominada por . También tenemos que:
(2)
La tercera igualdad viene de que para cualquier variable aleatoria se cumple que:
La ( tiene probabilidad cero. Por lo tanto, en un conjunto de probabilidad 1 se cumple:
) implica, por Borel-Canteli, que el conjunto(3)
De la desigualdad podemos deducir que:
Por el teorema anteriormente demostrado tenemos:
(4)
casi seguramente. Como además tenemos que:
Entonces, de las ecuaciones ( en casi en todos los puntos, concluyendo el teorema.
), ( ) y ( ) se deduce que(Fin de la demostración)
Ejemplos
editarPor ejemplo, una sola tirada de un dado de seis caras produce uno de los números 1, 2, 3, 4, 5 o 6, cada uno con la misma probabilidad. Por tanto, el valor esperado del promedio de las tiradas es:
De acuerdo con la ley de los grandes números, si se lanza una gran cantidad de dados de seis caras, el promedio de sus valores (a veces llamado media muestral) se aproximará a 3,5, y la precisión aumentará a medida que se lancen más dados.
De la ley de los grandes números se deduce que la probabilidad empírica de éxito en una serie de ensayos de Bernoulli convergerá con la probabilidad teórica. Para una variable aleatoria de Bernoulli, el valor esperado es la probabilidad teórica de éxito, y el promedio de n tales variables (suponiendo que sean independientes e idénticamente distribuidas (i.i.d.)) es precisamente la frecuencia relativa.
Un ejemplo gráfico de la ley de los grandes números utilizada para dos tiradas de dados. La suma de los dos dados fluctúa en las primeras tiradas, pero a medida que aumenta el número de tiradas, el valor esperado de la suma de los dos dados se acerca a 7.
Por ejemplo, un lanzamiento de una moneda justa (aquella en la que tienen exactamente las mismas probabilidades de caer boca arriba los dos lados, la cara y la cruz) es una prueba de Bernoulli. Cuando se lanza una moneda justa una vez, la probabilidad teórica de que el resultado sea cara es igual a 1⁄2. Por lo tanto, según la ley de los grandes números, la proporción de caras en un "gran" número de lanzamientos de moneda "debería ser" aproximadamente 1⁄2. En particular, la proporción de caras después de n lanzamientos casi seguramente convergerá a 1⁄2 cuando n se acerque al infinito.
Aunque la proporción de caras (y cruces) se acerca a la mitad, es casi seguro que la diferencia absoluta en el número de caras y cruces aumentará a medida que aumente el número de lanzamientos. Es decir, la probabilidad de que la diferencia absoluta sea un número pequeño se acerca a cero a medida que el número de lanzamientos aumenta. Además, es casi seguro que la relación entre la diferencia absoluta y el número de lanzamientos se aproximará a cero. Intuitivamente, la diferencia esperada crece, pero a un ritmo más lento que el número de lanzamientos.
Otro buen ejemplo de LGN es el Método de Montecarlo. Estos métodos son una clase amplia de algoritmos computacionales que se basan en muestreos aleatorios repetidos para obtener resultados numéricos. Cuanto mayor sea el número de repeticiones, mejor tiende a ser la aproximación. La razón por la que este método es importante es principalmente que, a veces, es difícil o imposible utilizar otros enfoques.[7]
Véase también
editarReferencias
editar- David Pollard, A user´s guide to measure theoretic probability, Cambridge University Press (2003).
- ↑ Mlodinow, L. The Drunkard's Walk. New York: Random House, 2008. p. 50.
- ↑ Jakob Bernoulli, Ars Conjectandi: Usum & Applicationem Praecedentis Doctrinae in Civilibus, Moralibus & Oeconomicis, 1713, Chapter 4, (Translated into English by Oscar Sheynin)
- ↑ Poisson names the "law of large numbers" (la loi des grands nombres) in: S.D. Poisson, Probabilité des jugements en matière criminelle et en matière civile, précédées des règles générales du calcul des probabilitiés (Paris, France: Bachelier, 1837), p. 7. He attempts a two-part proof of the law on pp. 139–143 and pp. 277 ff.
- ↑ Hacking, Ian. (1983) "19th-century Cracks in the Concept of Determinism", Journal of the History of Ideas, 44 (3), 455-475
- ↑ Tchebichef, P. (1846). «Démonstration élémentaire d'une proposition générale de la théorie des probabilités». Journal für die reine und angewandte Mathematik (Crelles Journal) 1846 (33): 259-267. doi:10.1515/crll.1846.33.259.
- ↑ a b Seneta, 2013.
- ↑ Kroese, Dirk P.; Brereton, Tim; Taimre, Thomas; Botev, Zdravko I. (2014). «Why the Monte Carlo method is so important today». Wiley Interdisciplinary Reviews: Computational Statistics (en inglés) 6 (6): 386-392. S2CID 18521840. doi:10.1002/wics.1314.
Bibliografía adicional
editar- Grimmett, G. R.; Stirzaker, D. R. (1992). Probability and Random Processes, 2nd Edition. Clarendon Press, Oxford. ISBN 0-19-853665-8.
- Richard Durrett (1995). Probability: Theory and Examples, 2nd Edition. Duxbury Press.
- Martin Jacobsen (1992). Videregående Sandsynlighedsregning (Advanced Probability Theory) 3rd Edition. HCØ-tryk, Copenhagen. ISBN 87-91180-71-6.
- Loève, Michel (1977). Probability theory 1 (4th edición). Springer Verlag.
- Newey, Whitney K.; McFadden, Daniel (1994). Large sample estimation and hypothesis testing. Handbook of econometrics, vol. IV, Ch. 36. Elsevier Science. pp. 2111-2245.
- Ross, Sheldon (2009). A first course in probability (8th edición). Prentice Hall press. ISBN 978-0-13-603313-4.
- Sen, P. K; Singer, J. M. (1993). Large sample methods in statistics. Chapman & Hall, Inc.
- Seneta, Eugene (2013), «A Tricentenary history of the Law of Large Numbers», Bernoulli 19 (4): 1088-1121, S2CID 88520834, arXiv:1309.6488, doi:10.3150/12-BEJSP12.
- Dominique Foata y Aimé Fuchs, Calcul des Probabilités. (en francés)
- Daniel Dugué, « Calcul des probabilités », Dictionnaire des mathématiques, fondements, probabilités, applications, Encyclopædia Universalis et Albin Michel, Paris 1998. (en francés)