Estimador insesgado de varianza mínima

En estadística un estimador insesgado de varianza mínima es aquel que tiene menor varianza que cualquier otro estimador insesgado para todos los posibles valores del parámetro.

Para los problemas estadísticos prácticos, es importante determinar si es que existe dicho estimador, ya que, naturalmente, se evitarían procedimientos sub-óptimos, manteniendo constante el resto de las condiciones. Esto ha llevado al desarrollo sustancial de la teoría estadística relacionada con el problema de la estimación óptima. Aunque la memoria particular de "óptimo" aquí - que requiere insesgamiento y medir la "bondad" con la varianza - puede no ser siempre lo que se quiere para cualquier situación práctica dada, es una donde se encuentran los resultados útiles y de aplicación general.

Definición editar

Considere la estimación   basada en los datos   IID de algún miembro de la familia de las densidades  , en donde   es el espacio de parámetros. Un estimador   de   es insesgado de varianza mínima si  ,

 

para cualquier otro estimador insesgado  

Si un estimador insesgado de   existe, entonces se puede probar que hay una Estimador insesgado de varianza mínima esencialmente único. Usando el Teorema de Rao-Blackwell también se puede probar que la determinación de la Estimador insesgado de varianza mínima es simplemente una cuestión de encontrar un estadístico completo y suficiente para la familia   y acondicionamiento cualquier estimador imparcial sobre el mismo.

Además, por el teorema de Lehmann-Scheffé, un estimador insesgado es una función de una completa, estadístico suficiente es el estimador UMVUE.

Ponga formalmente, supongamos   es imparcial para  , y que   es una estadística suficiente completa para la familia de densidades. Entonces

 

es el MVUE para  

Un caso análogo bayesiano es un estimador de Bayes, en particular con error cuadrático medio mínimo (MMSE).

Selección del estimador editar

Un estimador eficiente no tiene por qué existir, pero si lo hace y si es imparcial, es la MVUE. Puesto que el error cuadrático medio (MSE) de un estimador es δ

 

la MVUE minimiza MSE entre los estimadores no sesgados. En algunos casos estimadores sesgados tener menor MSE porque tienen una varianza más pequeña que lo hace cualquier estimador insesgado; ver sesgo estimador.

Ejemplo editar

Considere la posibilidad de que los datos son una sola observación de una distribución absolutamente continua en   con la densidad:

 

y deseamos encontrar el estimador de UMVU

 

En primer lugar, reconocemos que la densidad se puede escribir como

 

Qué es una familia exponencial con suficiente estadística  . De hecho, esta es una familia exponencial de rango completo, y por lo tanto T es completa suficiente. Ver familia exponencial para una derivación que muestra

 

Por lo tanto

 

Claramente   es insesgado, por lo que el estimador es UMVU

 

Este ejemplo ilustra que una función imparcial de la estadística suficiente completa será UMVU.

Otros ejemplos editar

  • Para una distribución normal de media y varianza desconocidas, la media de la muestra y (imparcial) varianza de la muestra son los MVUEs para la media poblacional y la varianza de la población.
Sin embargo, la desviación estándar de la muestra no es imparcial para la desviación estándar de la población - ver estimación no sesgada de la desviación estándar. Además, para otras distribuciones de la media muestral y la varianza de la muestra no se encuentran en MVUEs generales - para una distribución uniforme con límites superior e inferior desconocidas, el rango medio es la MVUE para la media poblacional.
  • Si k ejemplares se eligen (sin reemplazo) de una distribución uniforme discreta sobre el conjunto {1, 2, ..., N} con desconocido límite superior N, el MVUE para N es
 

donde m es el máximo de la muestra. Este es un escalados y desplazados (de manera imparcial) transformar del máximo de la muestra, que es una estadística suficiente y completa. Vea problema tanque alemán para más detalles.

Referencias editar

  • Keener, Robert W. (2006). Statistical Theory: Notes for a Course in Theoretical Statistics. Springer. pp. 47-48, 57-58. 
  • Voinov V. G.,, Nikulin M.S. (1993). Unbiased estimators and their applications, Vol.1: Univariate case. Kluwer Academic Publishers. pp. 521p.