En estadística, los estimadores extremos constituyen una amplia clase de estimadores para modelos paramétricos que se calculan mediante la maximización (o minimización) de una determinada función objetivo, que depende de la muestra. La teoría general de estimadores extremos fue desarrollada por Amemiya (1985).

Definición

editar

Un estimador   se llama estimador extremo si existe una función objetivo   tal que

 

donde   es el espacio de parámetros. A veces se da una condición más débil:

 

donde   es una variable que converge en probabilidad a cero. Con esta modificación,   no necesita ser el valor exacto que maximiza la función objetivo, sino simplemente estar lo suficientemente cerca de ese valor.

La teoría de los estimadores extremos no especifica cuál debe ser la función objetivo. Existen varios tipos de funciones objetivo adecuadas para diferentes modelos, por lo que el estudio de los estimadores extremos nos permite analizar simultáneamente las propiedades teóricas de una amplia clase de estimadores. La teoría sólo especifica las propiedades que la función objetivo debe tener, de forma que, cuando uno elige una función objetivo particular, sólo debe verificar que esas propiedades se cumplen.

Consistencia

editar
 
Cuando el espacio de parámetros   no es compacto (  en este ejemplo), aunque la función objetivo tenga un único máximo en  , este máximo puede no estar bien separado, en cuyo caso el estimador   no será consistente.

Si el espacio de parámetros   es compacto y existe una función límite   tal que:

  1.   en probabilidad uniformemente en  , y
  2. la función   es continua y tiene un único máximo en  ,

entonces   es un estimador consistente de  .[1]

La convergencia uniforme en probabilidad de   significa que

 

La condición de que   sea compacto puede relajarse: basta suponer que el máximo de   está bien separado, es decir, que para toda secuencia   tal que   se verifica  . Intuitivamente, esto significa que no existen puntos   lejanos a   tales que   esté próximo a  .

Normalidad asintótica

editar

Suponiendo que son ciertas las hipótesis anteriores para la consistencia y que las derivadas de   satisfacen ciertas condiciones,[2]​ el estimador extremo es asintóticamente normal.

Ejemplos

editar
 

donde   es la función de densidad de la distribución de la que fue extraída la muestra. Esta función objetivo se llama función de log-verosomilitud.

 
  • Estimador de mínima distancia.

Referencias

editar
  1. Newey & McFadden (1994), Theorem 2.1
  2. Shi, Xiaoxia. «Lecture Notes: Asymptotic Normality of Extremum Estimators».