Suma residual de cuadrados

En estadística e inteligencia artificial, la suma residual de cuadrados (RSS), también conocida como suma de residuos cuadrados (SSR) o suma de cuadrados de estimación de errores (SSE), es la suma de los cuadrados de residuos (desviaciones predichas a partir de valores empíricos reales). de datos). Es una medida de la discrepancia entre los datos y un modelo de estimación, como una regresión lineal. Un RSS pequeño indica un ajuste estrecho del modelo a los datos. Se utiliza como criterio de optimización en la selección de parámetros y la selección de modelos .

En general, suma total de cuadrados = suma explicada de cuadrados + suma residual de cuadrados. Para ver una prueba de esto en el caso de mínimos cuadrados ordinarios (OLS) multivariante, consulte partición en el modelo OLS general .

Una variable explicativa

editar

En un modelo con una sola variable explicativa (explanatory variable en inglés), RSS viene dado por:[1]

 

donde y i es el i -ésimo valor de la variable a predecir, x i es el i -ésimo valor de la variable explicativa, y   es el valor pronosticado de y i (también denominado   ). En un modelo de regresión lineal simple estándar,  , donde   y   son coeficientes, y y x son la regresora y la regresora, respectivamente, y ε es el término de error . La suma de los cuadrados de los residuos es la suma de los cuadrados de   ; es decir

 

donde   es el valor estimado del término constante   y   es el valor estimado del coeficiente de pendiente   .

Expresión matricial para la suma residual de cuadrados OLS - MCO

editar

El modelo de regresión general con n observaciones y k explicadores (explanators en inglés), el primero de los cuales es un vector unitario constante cuyo coeficiente es el intercepto de la regresión, es

 

donde y es un vector n × 1 de observaciones de variables dependientes, cada columna de la matriz n × k , X es un vector de observaciones en uno de los k explicadores,   es un vector k × 1 de coeficientes verdaderos, y e es un vector n × 1 de los errores subyacentes verdaderos. El estimador de mínimos cuadrados ordinarios para   es

 
 
 

El vector residual   =   ; entonces la suma residual de los cuadrados es:

 ,

(equivalente al cuadrado de la norma de residuos). En su totalidad:

 ,

donde H es la matriz sombrero, o la matriz de proyección en regresión lineal.

Relación con la correlación producto-momento de Pearson

editar

La línea de regresión de mínimos cuadrados está dada por

 ,

donde   y  , donde   y  

Por lo tanto,

 

donde  

La correlación producto-momento de Pearson está dada por   por lo tanto,  

Véase también

editar

Referencias

editar
  1. Archdeacon, Thomas J. (1994). Correlation and regression analysis : a historian's guide. University of Wisconsin Press. pp. 161-162. ISBN 0-299-13650-7. OCLC 27266095. 

Bibliografía

editar
  • Draper, N.R.; Smith, H. (1998). Applied Regression Analysis (3rd edición). John Wiley. ISBN 0-471-17082-8.