Diferencia entre revisiones de «Modelo probit»
Contenido eliminado Contenido añadido
Corrección de errores ortográficos. |
Correción de conceptos, mejora de ecuaciones, se agregó más informacion |
||
Línea 7:
==Marco conceptual==
Supongamos que una variable de respuesta
1 </math> y <math> 0 </math>. Por ejemplo, <math>Y</math> puede representar la presencia : <math>
</math>
Donde <math>
P
</math> denota la probabilidad , y <math>
\Phi
</math> es la [[Función de distribución|Función de Distribución Acumulada]] ( FDA) de la [[Distribución normal|distribución normal estándar]]. Los parámetros <math>
\beta
</math> se estiman típicamente por [[máxima verosimilitud]].
Es posible motivar el modelo probit como un modelo de variable latente. Supongamos que existe una variable aleatoria auxiliar
: <math> Y^\ast = X^T\beta + \varepsilon, </math>
donde <math>
donde ''ε'' ~ ''N''(0, 1). Entonces ''Y'' puede verse como un indicador de si esta variable latente es positiva:▼
\varepsilon\sim N(0,1)
</math>. Entonces <math>
Y
0 &\text{en otro caso}. \end{cases} </math>▼
▲
: <math> Y =
\left.
\begin{cases}
1 & Y^* > 0 \\
0 &\text{en otro caso}
\end{cases}
\right.
=
\begin{cases}
1 & - \varepsilon < X^T\beta, \\
\end{cases} </math>
El uso de la distribución normal estándar no causa pérdida de generalidad en comparación con el uso de una media arbitraria y una desviación estándar porque la suma de una cantidad fija a la media puede compensarse restando la misma cantidad de la intersección y multiplicando la desviación estándar por una cantidad fija se puede compensar multiplicando los pesos por la misma cantidad.
Línea 26 ⟶ 49:
:<math>
\begin{align}
= {} &
= {} &
= {} &
= {} &
= {} & \Phi(X^T\beta)
\end{align}
Línea 38 ⟶ 61:
===Estimación de máxima verosimilitud===
Supongamos que el conjunto de datos <math>\{y_i,x_i\}_{i=1}^n</math> contiene
n </math> unidades estadísticas independientes que corresponden al modelo anterior. Entonces su función conjunta de verosimilitud de \log
</math> es
: <math> \ln\mathcal{L}(\beta) = \sum_{i=1}^n \bigg( y_i\ln\Phi(x_i'\beta) + (1-y_i)\ln\!\big(1-\Phi(x_i'\beta)\big) \bigg)</math>
El estimador <math>\hat\beta</math> que maximiza esta función será consistente, asintóticamente normal y eficiente siempre que
XX </math> exista y sea no \log </math> es cóncava globalmente en \beta </math>, y por lo tanto los algoritmos numéricos estándar para la optimización convergerán rápidamente al máximo único. Distribución asintótica para <math>\hat\beta</math> esta dado por:
|