Diferencia entre revisiones de «Regresión logística»

Contenido eliminado Contenido añadido
Línea 14:
:<math>p_i = \operatorname{E}\left(\left.\frac{Y_i}{n_{i}}\right|X_i \right). \,\!</math>
 
Los logits de las probabilidades binomiales desconocidas (''i.e.'', los logaritmos de losla [[oddsrazón de momimos]]) son modeladas como una función lineal de los ''X<sub>i</sub>''.
{{ecuación|
:<math>\operatorname{logit}(p_i)=\ln\left(\frac{p_i}{1-p_i}\right) = \beta_0 + \beta_1 x_{1,i} + \cdots + \beta_k x_{k,i}.</math>
||left}}
Note que un elemento particular de ''X<sub>i</sub>'' puede ser ajustado a 1 para todo ''i'' obteniéndose ununa [[Y-regresión interceptolineal|interceptoconstante independiente]] en el modelo. Los parámetros desconocidos ''β''<sub>j</sub> son usualmente estimados a través de [[máxima verosimilitud]].
 
La interpretación de los estimados del parámetro ''β''<sub>''j''</sub> es como los efectos aditivos en el loglogaritmo [[oddsde ratio]]la razón de momios para una unidad de cambio en la ''j''ésima variable explicativa. En el caso de una variable explicativa dicotómica, por ejemplo género, <math>e^\beta</math> es la estimación del odds ratio de tener el resultado para, por decir algo, hombres comparados con mujeres.
:<math>\operatorname{logit}(p_i)=\ln\left(\frac{p_i}{1-p_i}\right) = \beta_0 + \beta_1 x_{1,i} + \cdots + \beta_k x_{k,i}.</math>
 
Note que un elemento particular de ''X<sub>i</sub>'' puede ser ajustado a 1 para todo ''i'' obteniéndose un [[Y- intercepto|intercepto]] en el modelo. Los parámetros desconocidos ''β''<sub>j</sub> son usualmente estimados a través de [[máxima verosimilitud]].
 
La interpretación de los estimados del parámetro ''β''<sub>''j''</sub> es como los efectos aditivos en el log [[odds ratio]] para una unidad de cambio en la ''j''ésima variable explicativa. En el caso de una variable explicativa dicotómica, por ejemplo género, <math>e^\beta</math> es la estimación del odds ratio de tener el resultado para, por decir algo, hombres comparados con mujeres.
 
El modelo tiene una formulación equivalente dada por
{{ecuación1
 
:<math>p_i = \frac{1}{1+e^{-(\beta_0 + \beta_1 x_{1,i} + \cdots + \beta_k x_{k,i})}}. \,\!</math>
||{eft}}
 
Esta forma funcional es comúnmente identificada como un "perceptrón" de una capa simple or [[red neuronal artificial]] de una sola capa. Una red neuronal de una sola capa calcula una salida continua en lugar de una [[función por pedazos]]. La derivada de ''p<sub>i</sub>'' con respecto a ''X = x<sub>1</sub>...x<sub>k</sub>'' es calculada de la forma general:
{{ecuación|