Estimación de la desviación estándar no sesgada

Procedimiento para corregir la desviación estándar de una población de acuerdo con el tamaño de la muestra utilizada para estimarla

En estadística, y en particular en estadística teórica, la estimación de la desviación estándar no sesgada es el cálculo de un valor estimado de la desviación estándar de una población de valores obtenida a partir de una muestra estadística (una medida de dispersión), de tal manera que la esperanza matemática obtenida del cálculo sea igual a su valor verdadero. Excepto en algunas situaciones importantes, que se describen más adelante, la tarea tiene poca relevancia para las aplicaciones estadísticas, ya que su necesidad se evita mediante procedimientos estándar, como el uso del contraste de hipótesis y de intervalos de confianza, o mediante el uso de inferencia bayesiana.

Sin embargo, para la teoría estadística, proporciona un problema que sirve de ejemplo en el contexto de la estimación estadística .

Trasfondo editar

En estadística, la desviación típica de una población de números a menudo se estima a partir de una muestra extraída de la población. Entonces se habla de la desviación estándar de la muestra, que se define por

 

donde   es la muestra (formalmente, las realizaciones de una variable aleatoria X) y   es su media muestral.

Una forma de ver que se produce un sesgo estadístico de la desviación estándar de la población es suponer que el resultado de s2 posee un sesgo estadístico subyacente de la varianza σ2 de la población, si existe esa varianza y se extraen los valores de la muestra, independientemente de que se haga con reemplazo. La raíz cuadrada es una función no lineal, y solo las funciones lineales son conmutativas al evaluar la expectativa de un suceso. Como la raíz cuadrada es una función estrictamente cóncava, según la desigualdad de Jensen se deduce que la raíz cuadrada de la varianza de la muestra es una subestimación de su valor.

El uso de n & minus; 1 en lugar de n en la fórmula para la varianza de la muestra se conoce como corrección de Bessel, que permite corregir el sesgo en la estimación de la varianza de la población, y algunos (pero no todos) sesgos en la estimación de la desviación estándar de la muestra.

No es posible encontrar una estimación de la desviación estándar que sea imparcial para todas las distribuciones de la población, ya que el sesgo depende de cada distribución en particular. Gran parte de los apartados siguientes se relacionan con la estimación no sesgada suponiendo una distribución normal.

Corrección del sesgo editar

Resultados para la distribución normal editar

 
Factor de corrección c4 frente al tamaño de la muestra n

Cuando la variable aleatoria está normalmente distribuida, existe una corrección menor para eliminar el sesgo. Para deducir esta corrección, ha de tenerse en cuenta que una variable X normalmente distribuida, según el teorema de Cochran, implica que   tiene una distribución χ² con n − 1 grados de libertad, y por lo tanto, su raíz cuadrada   tiene una distribución χ con n − 1 grados de libertad. En consecuencia, calculando el valor esperado de esta última expresión y reorganizando las constantes,

 

donde el factor de corrección c4 (n) es la media de la escala de la distribución chi con n − 1 grados de libertad,   El resultado depende del tamaño de la muestra n y se obtiene de la siguiente manera:[1]

 

donde Γ (·) es la función gamma. Se puede obtener un estimador sin sesgo de σ al dividir s por c4 (n). A medida que n crece, se acerca a 1, e incluso para valores más pequeños, la corrección es menor. La figura muestra una gráfica de c4 (n) con respecto al tamaño de muestra. La siguiente tabla muestra valores numéricos de c4 y expresiones algebraicas para algunos valores de n. Se pueden encontrar tablas más completas en la mayoría de los libros de texto sobre control estadístico de procesos.

Tamaño de la muestra Expresión de c4 Valor numérico
2   0.7978845608
3   0.8862269255
4   0.9213177319
5   0.9399856030
6   0.9515328619
7   0.9593687891
8   0.9650304561
9   0.9693106998
10   0.9726592741
100 0.9974779761
1000 0.9997497811
10000 0.9999749978
2k  
2k+1  

Es importante tener en cuenta que esta corrección solo produce un estimador imparcial para la "X" distribuida de manera normal e independiente. Cuando se cumple esta condición, otro resultado de s que involucra a c4 (n) es que el error estándar de s es[2][3] , mientras que el error estándar del estimador no sesgado es  .

Regla aproximada para estimar el sesgo de la distribución normal editar

Si el cálculo de la función c4 (n) puede parecer demasiado difícil, existe una simple regla del pulgar[4]​ para estimarla:

 

La fórmula difiere de la expresión habitual de s2 solo por tener (n − 1.5) en lugar de (n − 1) en el denominador. Esta expresión es solo aproximada, de hecho, la fórmula exacta es:

 

Sin embargo, la diferencia en el sesgo obtenido con la regla aproximada es relativamente pequeña: por ejemplo, para n = 3 es igual al 1.3%, y para n = 9 la diferencia ya es menor del 0.1%.

Otras distribuciones editar

En los casos en que los datos estadísticamente independientes son modelados por una familia paramétrica de distribuciones diferentes de una distribución normal, la desviación estándar de la población, si existe, será una función de los parámetros del modelo. Un enfoque general para la estimación sería determinar la máxima verosimilitud. Alternativamente, puede ser posible usar el teorema de Rao-Blackwell como un método para encontrar una buena estimación de la desviación estándar. En ningún caso las estimaciones obtenidas generalmente serán no sesgadas. Básicamente, podrían obtenerse ajustes teóricos para obtener estimaciones no sesgadas, pero, a diferencia del caso de la distribución normal, casi siempre dependerían de los parámetros estimados.

Si el requisito es simplemente reducir el sesgo de una desviación estándar estimada, en lugar de eliminarlo por completo, entonces hay dos enfoques prácticos disponibles, ambos dentro del contexto del remuestreo, que se denominan jackknife y bootstrapping. Ambas técnicas se pueden aplicar a estimaciones basadas en parámetros de la desviación estándar o a la propia desviación estándar de la muestra.

Para distribuciones no normales, una fórmula aproximada (hasta O (n−1)) para el estimador no sesgado de la desviación estándar es:

 

donde γ2 denota la curtosis de la población. El exceso de curtosis se puede conocer de antemano para ciertas distribuciones o se puede estimar a partir de los datos.

Efecto de la autocorrelación (correlación serial) editar

Como ya se ha señalado, los principios anteriores solo se aplican a datos estadísticamente independientes. Sin embargo, los datos del mundo real a menudo no cumplen con este requisito; y pueden estar autocorrelacionados (característica también conocida como correlación serial). Por ejemplo, las lecturas sucesivas de un instrumento de medición que incorpora algún tipo de proceso de "suavizado" (más correctamente, filtrado de paso bajo) se autocorrelacionarán, ya que cualquier valor en particular se calcula a partir de una combinación de las lecturas anteriores y posteriores.

Las estimaciones de la varianza y la desviación estándar de los datos autocorrelacionados estarán sesgadas. El valor esperado de la varianza de la muestra es:[5]

 

donde "n" es el tamaño de la muestra (número de mediciones) y " " es la función de autocorrelación de los datos (téngase en cuenta que la expresión entre corchetes es simplemente uno menos la autocorrelación promedio esperada para las lecturas). Si la función de autocorrelación consta de valores positivos, entonces la estimación de la varianza (y su raíz cuadrada, la desviación estándar) se sesgará a un nivel bajo. Es decir, la variabilidad real de los datos será mayor que la indicada por una varianza no corregida o un cálculo de desviación estándar. Es esencial reconocer que, si esta expresión se va a usar para corregir el sesgo, al dividir la estimación   por la cantidad entre paréntesis de arriba, entonces la función de autocorrelación debe ser conocida "analíticamente", no a través de la estimación de los datos. Esto se debe a que la citada función de autocorrelacion estimada siempre estará sesgada.[6]

Ejemplo de sesgo en la desviación estándar editar

Para ilustrar la magnitud del sesgo en la desviación estándar, considérese un conjunto de datos que consiste en lecturas secuenciales de un instrumento que usa un filtro digital específico, cuya función de autocorrelación se sabe que está dada por

 

donde α es el parámetro del filtro, y toma valores de cero a la unidad. Así, la función es positiva y disminuye geométricamente.

 
Sesgo en la desviación estándar para datos autocorrelacionados

La figura muestra la relación entre la desviación estándar estimada y su valor conocido (que puede calcularse analíticamente para este filtro digital), para varias configuraciones de α en función del tamaño de la muestra n. Cambiar α altera la relación de reducción de varianza del filtro, que se sabe que es

 

de modo que los valores más pequeños de α den como resultado una mayor reducción de la varianza o "suavizado". El sesgo se indica mediante valores en el eje vertical diferentes de la unidad; es decir, si no hubiera sesgo, la proporción entre la desviación estándar estimada y la conocida sería la unidad. Claramente, para tamaños de muestra modestos puede haber un sesgo significativo (un factor de dos o más).

Varianza de la media editar

A menudo es interesante estimar la varianza o desviación estándar de una "media" estimada en lugar de la varianza de una población. Cuando los datos están autocorrelacionados, esto tiene un efecto directo en la varianza teórica de la media de la muestra, que es:[7]

 

La varianza de la media muestral puede entonces estimarse sustituyendo una estimación de σ2. Una estimación de este tipo se puede obtener de la ecuación para E [s2] dada anteriormente. Primero deben definirse las siguientes constantes, asumiendo, una vez más, una función de autocorrelación conocida:

 
 

de lo que se sigue

 

Esto dice que el valor esperado de la cantidad obtenida al dividir la varianza de la muestra observada por el factor de corrección   proporciona una estimación no sesgada de la varianza. Del mismo modo, reescribiendo la expresión anterior para la varianza de la media,

 

y sustituyendo la estimación por   resulta:[8]

 

que es un estimador no sesgado de la varianza de la media en términos de la varianza de la muestra observada y de las cantidades conocidas. Téngase en cuenta que, si las autocorrelaciones   son idénticamente cero, esta expresión se reduce al resultado conocido de la varianza de la media para los datos independientes. El efecto del operador del valor esperado en estas expresiones es que la igualdad se mantiene en la media (es decir, en el promedio).

Estimación de la desviación estándar de la población editar

Al tener las expresiones anteriores que involucran la varianza de la población, y una estimación de la media de esa población, parece lógico simplemente tomar la raíz cuadrada de estas expresiones para obtener estimaciones no sesgadas de las respectivas desviaciones estándar. Sin embargo, es el caso de que los valores esperados sean integrales,

 

En su lugar, supóngase que existe una función θ tal que se puede escribir un estimador no sesgado de la desviación estándar

 

y θ depende del tamaño de la muestra n y de ,a función de autocorrelación. En el caso de datos no independientes (distribuidos normalmente e independientemente), el radicando es la unidad y θ es solo la función c4 dada en la primera sección anterior. Al igual que con c4, θ se acerca a la unidad a medida que aumenta el tamaño de la muestra (al igual que γ1).

Se puede demostrar a través de una simulación que ignorar θ (es decir, tomarlo como unidad) y usar

 

elimina todo menos un pequeño porcentaje del sesgo causado por la autocorrelación, lo que lo convierte en un estimador de sesgo "reducido", en lugar de un estimador "no" sesgado. En situaciones prácticas de medición, esta reducción en el sesgo puede ser significativa y útil, incluso si queda un sesgo relativamente pequeño. La figura anterior, que muestra un ejemplo del sesgo en la desviación estándar frente al tamaño de la muestra, se basa en esta aproximación; el sesgo real sería algo mayor que el indicado en esos gráficos, ya que no se incluye el sesgo de transformación θ.

Estimación de la desviación estándar de la media editar

La varianza no sesgada de la media en términos de la varianza de la población y de la función de autocorrelación viene dada por:

 

y como no hay valores esperados aquí, en este caso se puede tomar la raíz cuadrada, de modo que:

 

Al utilizar la expresión de estimación imparcial anterior para σ, se obtiene una estimación de la desviación estándar de la media:

 

Si los datos son no independientes, de modo que la función de autocorrelación se desvanece, esto se reduce a

 

En presencia de una función de autocorrelación distinta de cero, ignorar la función θ como antes conduce a un estimador de sesgo "reducido":

 

lo que nuevamente puede demostrarse que permite eliminar la mayor parte del sesgo.

Véase también editar

Referencias editar

  1. Ben W. Bolch, "More on unbiased estimation of the standard deviation", The American Statistician, 22(3), p. 27 (1968)
  2. Duncan, A. J., Quality Control and Industrial Statistics 4th Ed., Irwin (1974) ISBN 0-256-01558-9, p.139
  3. * N.L. Johnson, S. Kotz, and N. Balakrishnan, Continuous Univariate Distributions, Volume 1, 2nd edition, Wiley and sons, 1994. ISBN 0-471-58495-9. Chapter 13, Section 8.2
  4. Richard M. Brugger, "A Note on Unbiased Estimation of the Standard Deviation", The American Statistician (23) 4 p. 32 (1969)
  5. Law and Kelton, Simulation Modeling and Analysis, 2nd Ed. McGraw-Hill (1991), p.284, ISBN 0-07-036698-5. Esta expresión se puede derivar de su fuente original en Anderson, The Statistical Analysis of Time Series, Wiley (1971), ISBN 0-471-04745-7, p.448, Equation 51.
  6. Law and Kelton, p.286. This bias is quantified in Anderson, p.448, Equations 52–54.
  7. Law and Kelton, p.285. Esta ecuación puede derivarse del teorema 8.2.3 de Anderson. También aparece en Box, Jenkins, Reinsel, Time Series Analysis: Forecasting and Control, 4th Ed. Wiley (2008), ISBN 978-0-470-27284-8, p.31.
  8. Law and Kelton, p.285
  • Douglas C. Montgomery y George C. Runger, Estadística Aplicada y Probabilidad para Ingenieros , tercera edición, Wiley and sons, 2003. (ver Secciones 7 y ndash; 2.2 y 16 y ndash; 5)

Enlaces externos editar