Distribución uniforme continua

Distribución uniforme en un intervalo
(Redirigido desde «Distribución uniforme (continua)»)

En teoría de probabilidad y estadística, la distribución uniforme continua es una familia de distribuciones de probabilidad para variables aleatorias continuas, tales que para cada miembro de la familia, todos los intervalos de igual longitud en la distribución en su rango son igualmente probables. El dominio está definido por dos parámetros, y , que son sus valores mínimo y máximo respectivamente.

Uniforme
PDF of the uniform probability distribution using the maximum convention at the transition points.
Utilizando convención de máximo
Función de densidad de probabilidad
CDF of the uniform probability distribution.
Función de distribución de probabilidad
Parámetros
Dominio
Función de densidad (pdf)
Función de distribución (cdf)
Media
Mediana
Moda cualquier valor en
Varianza
Coeficiente de simetría
Curtosis
Entropía
Función generadora de momentos (mgf)
Función característica

El intervalo puede ser cerrado (es decir, ) o abierto (es decir, ).[1]​ Por lo tanto, la distribución a menudo se abrevia donde significa distribución uniforme.[2]​ La diferencia entre los límites define la longitud del intervalo; todos los intervalos de la misma longitud en el soporte de la distribución son igualmente probables. Es la distribución de probabilidad de máxima entropía para una variable aleatoria sin más restricción que la de estar contenida en el soporte de la distribución.[3]

Definición

editar

Notación

editar

Si   es una variable aleatoria continua con distribución uniforme continua entonces escribiremos   o  .

Función de densidad

editar

Si   entonces la función de densidad es:

 

para  .

Dicho de otra forma, la función de densidad de probabilidad de la distribución uniforme continua es:

 

Los valores de   en los dos límites   y   no suelen tener importancia, porque no alteran el valor de   en ningún intervalo   ni de   ni de ningún momento superior. A veces se elige que sean cero, y a veces se elige que sean   Esto último es apropiado en el contexto de la estimación por el método de máxima verosimilitud. En el contexto del análisis de Fourier, se puede tomar el valor de   o   para ser   porque entonces la transformada inversa de muchas transformada integrals de esta función uniforme devolverá la propia función, en lugar de una función que es igual "casi en todas partes", es decir. es decir, excepto en un conjunto de puntos con medida nula. Además, es consistente con la función signo, que no tiene tal ambigüedad.

Cualquier función de densidad de probabilidad integra a   por lo que la función de densidad de probabilidad de la distribución uniforme continua se representa gráficamente como un rectángulo donde b-a es la longitud de la base y 1/(b-a) es la altura. A medida que la longitud de la base aumenta, la altura (la densidad en cualquier valor particular dentro de los límites de la distribución) disminuye.[4]

En términos de media   y varianza   la función de densidad de probabilidad de la distribución uniforme continua es:

 

Función de distribución

editar

Si   entonces la función de distribución es:

 

la cual es fácil de obtener a partir de la función de densidad pues

 

Ejemplo 1. Uso de la función de distribución uniforme continua

editar

Para una variable aleatoria   hallar  

 

En una representación gráfica de la función de distribución uniforme continua   el área bajo la curva dentro de los límites especificados, y mostrando la probabilidad, es un rectángulo. Para el ejemplo concreto anterior, la base sería 16, y la altura sería 1/23[5]

Ejemplo 2. Utilizando la función de distribución uniforme continua (condicional)

editar

Para una variable aleatoria   hallar  

 

El ejemplo anterior es un caso de probabilidad condicional para la distribución uniforme continua: dado que X > 8 es cierto, ¿cuál es la probabilidad de que X > 12? La probabilidad condicional cambia el espacio muestral, por lo que hay que calcular un nuevo intervalo de longitud (b-a'), donde   y  .[5]​ La representación gráfica seguiría el ejemplo 1, donde el área bajo la curva dentro de los límites especificados muestra la probabilidad; la base del rectángulo sería 11, y la altura sería 1/15[5]

Propiedades

editar

Si   es una variable aleatoria tal que   entonces la variable aleatoria   satisface algunas propiedades.

La media de la variable aleatoria   es

 

Esta se demuestra fácilmente utilizando la definición de esperanza matemática

 

Si se exponeen un gráfico la función de densidad de esta distribución notará que la media corresponde al punto medio del intervalo  .

Varianza

editar

La varianza de la variable aleatoria   es

 

Momentos

editar

El  -ésimo momento de la variable aleatoria   está dado por

 

para  .

Función generadora de momentos

editar

La función generadora de momentos de esta distribución es

 

para valores  .

Esto se demuestra fácilmente utilizando la definición de función generadora de momentos:

 

Generalización a conjuntos de Borel

editar

Esta distribución puede ser generalizada a conjuntos de intervalos más complicados. Si   es un conjunto de Borel de medida finita positiva, la distribución probabilidad uniforme en   se puede especificar definiendo que la pdf sea nula fuera de   e igual a 1/K dentro de  , donde K es la medida de Lebesgue de  .

Estadísticas de orden

editar

Sea   una muestra independiente e identicamente distribuidas de  . Sea   el  -ésimo estadístico de orden de esta muestra. Entonces la distribución de probabilidad de   es una distribución Beta con parámetros   y  . La esperanza matemática es

 

Esto es útil cuando se realizan Q-Q plots.

Las varianzas son

 

Uniformidad

editar

La probabilidad de que una variable aleatoria uniformemente distribuida se encuentre dentro de algún intervalo de longitud finita es independiente de la ubicación del intervalo (aunque sí depende del tamaño del intervalo), siempre que el intervalo esté contenido en el dominio de la distribución.

Es posible verificar esto: si   y   con   fijo, entonces

 .

lo cual sólo depende de la longitud del intervalo   y es independiente de  . Este hecho es el que le da su nombre a la distribución.

Distribución uniforme estándar

editar

Si se restringe   y   entonces la distribución resultante se llama distribución uniforme estándar. Si   es una variable aleatoria con distribución uniforme estándar entonces se escribirá  .

Para esta distribución en particular, se tiene que:

Función de densidad

editar

La función de densidad para cualquier valor   es simplemente la constante  , esto es

 

Función de probabilidad

editar

La función de probabilidad de   se reduce a la recta identidad, esto es

 

para valores de  

Media y Varianza

editar

La media y varianza están dadas por

 
 

respectivamente.

Simetría

editar

Si  , entonces  .

Transformada integral de probabilidad

editar

Si   es una variable aleatoria continua con función de distribución  , entonces la variable aleatoria  .

Aplicando este resultado, es posible simular valores aleatorios de cualquier variable aleatoria continua a partir de valores aleatorios de una distribución uniforme en el intervalo  : basta aplicar a dichos valores la inversa de la función de distribución de la variable que queremos simular.

Distribuciones relacionadas

editar

Si   tiene una distribución uniforme estándar, es decir,   entonces:

  •   tiene una distribución exponencial con parámetro  , es decir  .
  •   tiene una distribución beta con parámetros   y  . (Notar que esto implica que la distribución uniforme estándar es un caso especial de la distribución beta, con parámetros 1 y 1).

Relaciones con otras funciones

editar

Siempre y cuando se sigan las mismas convenciones en los puntos de transición, la función densidad de probabilidad puede también ser expresada mediante la función escalón de Heaviside:

  o en términos de la función rectángulo
 

No existe ambigüedad en el punto de transición de la función signo. Utilizando la convención de la mitad del máximo en los puntos de transición, la distribución uniforme se puede expresar a partir de la función signo como:

 

Aplicaciones

editar

En estadística, cuando se utiliza un p-valor a modo de prueba estadística para una hipótesis nula simple, y la distribución de la prueba estadística es continua, entonces la prueba estadística esta uniformemente distribuida entre 0 y 1 si la hipótesis nula es verdadera.

Muestreo de una distribución uniforme

editar

Existen muchos usos en que es útil realizar experimentos de simulación. Muchos lenguajes de programación poseen la capacidad de generar números pseudo-aleatorios que están distribuidos de acuerdo a una distribución uniforme estándar.

Si u es un valor muestreado de una distribución uniforme estándar, entonces el valor a + (ba)u posee una distribución uniforme parametrizada por a y b, como se describió previamente.

Muestreo de una distribución arbitraria

editar

La distribución uniforme resulta útil para muestrear distribuciones arbitrarias. Un método general es el método de muestreo de transformación inversa, que utiliza la distribución de probabilidad (CDF) de la variable aleatoria objetivo. Este método es muy útil en trabajos teóricos. Dado que las simulaciones que utilizan este método requieren invertir la CDF de la variable objetivo, se han diseñado métodos alternativos para aquellos casos donde no se conoce el CDF en una forma cerrada. Otro método similar es el muestreo de rechazo.

La distribución normal es un ejemplo importante en el que el método de la transformada inversa no es eficiente. Sin embargo, existe un método exacto, el Método de Box-Muller, que utiliza la transformada inversa para convertir dos variables aleatorias uniformes independientes en dos variables aleatorias independientes distribuidas normalmente.

Error de cuantificación

editar

En la conversión analógico-digital se produce un error de cuantización. Este error se debe al redondeo o al truncamiento. Cuando la señal original es mucho mayor que un least significant bit (LSB), el error de cuantización no está significativamente correlacionado con la señal, y tiene una distribución aproximadamente uniforme. Por lo tanto, el error RMS, por sus siglas en inglés, se obtiene a partir de la varianza de esta distribución.

Generación de variantes aleatorias

editar

Hay muchas aplicaciones en las que resulta útil realizar experimentos de simulación. Muchos lenguajes de programacións vienen con implementaciones para generar números pseudoaleatorios que se distribuyen efectivamente según la distribución uniforme estándar.

Por otro lado, los números distribuidos uniformemente se utilizan a menudo como base para la generación de variantes aleatorias no uniformes.

Si   es un valor muestreado de la distribución uniforme estándar, entonces el valor   sigue la distribución uniforme parametrizada por   y   como se ha descrito anteriormente.

Historia

editar

Aunque los orígenes históricos de la concepción de la distribución uniforme no son concluyentes, se especula que el término "uniforme" surgió del concepto de equiprobabilidad en los juegos de dados (nótese que los juegos de dados tendrían discreta y no espacio muestral uniforme continuo). La equiprobabilidad fue mencionada en el Liber de Ludo Aleae de Gerolamo Cardano, un manual escrito en el siglo XVI y detallado sobre el cálculo avanzado de probabilidades en relación con los dados.[6]

Véase también

editar

Referencias

editar
  1. Walpole, Ronald (2012). Probabilidad y estadística para ingenieros y científicos. Boston, USA: Prentice Hall. pp. 171-172. ISBN 978-0-321-62911-1. 
  2. Dekking, Michel (2005). A modern introduction to probability and statistics : understanding why and how. London, UK: Springer. pp. 60–61. ISBN 978-1-85233-896-1. 
  3. Park, Sung Y.; Bera, Anil K. (2009). «Modelo de heteroscedasticidad condicional autorregresiva de entropía máxima». Journal of Econometrics 150 (2): 219-230. doi:10.1016/j.jeconom.2008.12.014. 
  4. «Distribución Uniforme (Continua)». MathWorks. 2019. Consultado el 22 de noviembre de 2019. 
  5. a b c Illowsky, Barbara (2013). Introductory Statistics. Rice University, Houston, Texas, USA: OpenStax College. pp. 296–304. ISBN 978-1-938168-20-8. 
  6. Bellhouse, David (Mayo 2005). «Descifrando el Liber de Ludo de Cardano». Historia Mathematica 32: 180-202. 

Bibliografía

editar

Enlaces externos

editar