En estadística, el método delta es un método para derivar un aproximado de la distribución de probabilidad para una función de un estimador estadístico asintóticamente normal a partir del conocimiento de la limitación de varianza. En términos más generales, el método delta puede ser considerado como una generalización del teorema del límite central.[1]

Demostración en el caso Univariado

editar

La demostración de este resultado es bastante sencilla bajo el supuesto de que g′(θ) es continua . Para comenzar, utilizamos el teorema del valor medio:

 

donde   queda entre Xn y θ. Tenga en cuenta que, dado que   implica que   y dado que g′(θ) es continua, aplicando el teorema de mapeo continuo se obtienes

 

donde   denota la convergencia en la probabilidad.

Reordenando los términos y multiplicando por   nos da

 

Dado que:

 

por los suposición de, se deduce de inmediato de apelación al Teorema de Slutsky de que

 

Con lo que queda demostrado lo indicado.

Motivación del método delta multivariado

editar

Por definición, un estimador consistente B converge en probabilidad a su verdadero valor β, y a menudo por el teorema del límite central se pueden aplicar para obtener normalidad asintótica:

 

donde n es el número de observaciones y Σ es una matriz de covarianza (simétrica positivo semi-definida). Supongamos que queremos para estimar la varianza de una h función de la estimador de B. Manteniendo solo los primeros dos términos de la serie Taylor , y el uso de la notación vector para la gradiente de , podemos estimar h (B) como se

 

lo que implica la varianza de h (B) es aproximadamente el

 

Uno puede utilizar el teorema del valor medio (para las funciones reales de varias variables) para ver que este no se basa en tomar aproximación de primer orden.

Por lo tanto, El método delta implica que:

 

o en términos univariados,

 

Ejemplo

editar

Supongamos que Xn es Binomial con parámetros p y la n. Desde

 

podemos aplicar el método Delta con g (θ) = log (θ) para ver

 

Por lo tanto, la varianza de   es aproximadamente

 

Por otra parte, si   and   son estimaciones de los diferentes tipos de grupo de muestras independientes de tamaños n y m respectivamente, entonces el logaritmo de la estimación de riesgo relativo   aproximadamente él está normalmente distribuida con varianza que puede ser estimada por los  . Esto es útil para construir una prueba de hipótesis o para hacer un intervalo de confianza para el riesgo relativo.

El método delta se utiliza a menudo en una forma que es esencialmente idéntica a la anterior, pero sin el supuesto de que X n o B es asintóticamente normal. A menudo el único contexto es que la varianza es "pequeña". Los resultados a continuación, solo dan aproximaciones a los medios y covarianzas de las cantidades transformadas. Por ejemplo, las fórmulas presentadas en Klein (. 1953, p 258) son:

 

donde hr es el résimo elemento de h(B) y Bi es el iésimo elemento de B. La única diferencia es que Klein declaró estos como identidades, mientras que son en realidad aproximaciones.

Referencias

editar
  1. Oehlert, G. W. (1992). A note on the delta method. The American Statistician, 46(1), 27-29.

Bibliografía adicional

editar
  • Casella, G. and Berger, R. L. (2002), Statistical Inference, 2nd ed.
  • Cramér, H. (1946), Mathematical Models of Statistics, p. 353.
  • Davison, A. C. (2003), Statistical Models, pp. 33-35.
  • Greene, W. H. (2003), Econometric Analysis, 5th ed., pp. 913f.
  • Klein, L. R. (1953), A Textbook of Econometrics, p. 258.