Interpretación
editar
Cuando los valores altos de una de las variables suelen mayoritariamente corresponderse con los valores altos de la otra, y lo mismo se verifica para los pequeños valores de una con los de la otra, se corrobora que tienden a mostrar comportamiento similar lo que se refleja en un valor positivo de la covarianza [ 1] Por el contrario, cuando los valores altos de una variable suelen corresponder mayoritariamente a los menores valores de la otra, expresando un comportamiento opuesto, la covarianza es negativa. El signo de la covarianza , por lo tanto, expresa la tendencia en la relación lineal entre las variables. La magnitud requiere un esfuerzo adicional de interpretación: La versión normalizada de la covarianza , el coeficiente de correlación indica la magnitud de la especificidad de la relación lineal.
Se debe distinguir entre: (1) la covarianza de dos variables aleatorias, parámetro estadístico de una población considerado una propiedad de la distribución conjunta y (2) la covarianza muestral que se emplea como un valor estadísticamente estimado es una de las principales causas o motivos de la covarianza.
La covarianza entre dos variables aleatorias
X
{\displaystyle X}
y
Y
{\displaystyle Y}
se define como
Cov
(
X
,
Y
)
=
E
[
(
X
−
E
[
X
]
)
(
Y
−
E
[
Y
]
)
]
,
{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} {{\big [}(X-\operatorname {E} [X])(Y-\operatorname {E} [Y]){\big ]}},}
siempre que
E
[
X
]
{\displaystyle \operatorname {E} [X]}
,
E
[
Y
]
{\displaystyle \operatorname {E} [Y]}
y
E
[
X
Y
]
<
∞
{\displaystyle \operatorname {E} [XY]<\infty }
, donde
E
[
X
]
{\displaystyle \operatorname {E} [X]}
,
E
[
Y
]
{\displaystyle \operatorname {E} [Y]}
y
E
[
X
Y
]
{\displaystyle \operatorname {E} [XY]}
denota los valores esperados de las variables aleatorias
X
{\displaystyle X}
,
Y
{\displaystyle Y}
y
X
Y
{\displaystyle XY}
respectivamente. Como la esperanza es un operador lineal entonces la expresión anterior se puede escribir de otra forma
Cov
(
X
,
Y
)
=
E
[
(
X
−
E
[
X
]
)
(
Y
−
E
[
Y
]
)
]
=
E
[
X
Y
−
X
E
[
Y
]
−
E
[
X
]
Y
+
E
[
X
]
E
[
Y
]
]
=
E
[
X
Y
]
−
E
[
X
]
E
[
Y
]
−
E
[
X
]
E
[
Y
]
+
E
[
X
]
E
[
Y
]
=
E
[
X
Y
]
−
E
[
X
]
E
[
Y
]
.
{\displaystyle {\begin{aligned}\operatorname {Cov} (X,Y)&=\operatorname {E} \left[\left(X-\operatorname {E} \left[X\right]\right)\left(Y-\operatorname {E} \left[Y\right]\right)\right]\\&=\operatorname {E} \left[XY-X\operatorname {E} \left[Y\right]-\operatorname {E} \left[X\right]Y+\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right]\right]\\&=\operatorname {E} \left[XY\right]-\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right]-\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right]+\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right]\\&=\operatorname {E} \left[XY\right]-\operatorname {E} \left[X\right]\operatorname {E} \left[Y\right].\end{aligned}}}
Variables Aleatorias Discretas
editar
Si las variables aleatorias
X
{\displaystyle X}
y
Y
{\displaystyle Y}
pueden tomar los valores
x
i
{\displaystyle x_{i}}
y
y
i
{\displaystyle y_{i}}
para
i
=
1
,
2
,
…
,
n
{\displaystyle i=1,2,\dots ,n}
con probabilidad
P
[
X
=
x
i
]
=
1
/
n
{\displaystyle \operatorname {P} [X=x_{i}]=1/n}
y
P
[
Y
=
y
i
]
=
1
/
n
{\displaystyle \operatorname {P} [Y=y_{i}]=1/n}
respectivamente entonces la covarianza puede ser expresada en términos de
E
[
X
]
{\displaystyle \operatorname {E} [X]}
y
E
[
Y
]
{\displaystyle \operatorname {E} [Y]}
como
Cov
(
X
,
Y
)
=
1
n
∑
i
=
1
n
(
x
i
−
E
[
X
]
)
(
y
i
−
E
[
Y
]
)
{\displaystyle \operatorname {Cov} (X,Y)={\frac {1}{n}}\sum _{i=1}^{n}\left(x_{i}-\operatorname {E} [X]\right)\left(y_{i}-\operatorname {E} [Y]\right)}
o expresadas como
Cov
(
X
,
Y
)
=
1
2
n
2
∑
i
=
2
n
∑
j
=
1
n
(
x
i
−
x
j
)
(
y
i
−
y
j
)
{\displaystyle \operatorname {Cov} (X,Y)={\frac {1}{2n^{2}}}\sum _{i=2}^{n}\sum _{j=1}^{n}\left(x_{i}-x_{j}\right)\left(y_{i}-y_{j}\right)}
Caso Multivariado
editar
Si
X
{\displaystyle {\mathbf {X}}}
es un vector aleatorio de dimensión
n
{\displaystyle n}
, es decir,
X
=
(
X
1
,
…
,
X
n
)
t
{\displaystyle {\mathbf {X}}=(X_{1},\ldots ,X_{n})^{t}}
donde
X
i
{\displaystyle X_{i}}
para
i
=
1
,
2
,
…
,
n
{\displaystyle i=1,2,\dots ,n}
son variables aleatorias , la matriz de covarianza , denotada por
Σ
{\displaystyle \Sigma }
, está dada por
Σ
=
(
Cov
(
X
1
,
X
1
)
Cov
(
X
1
,
X
2
)
⋯
Cov
(
X
1
,
X
n
)
Cov
(
X
2
,
X
1
)
Cov
(
X
2
,
X
2
)
⋯
Cov
(
X
2
,
X
n
)
⋮
⋮
⋱
⋮
Cov
(
X
n
,
X
1
)
Cov
(
X
n
,
X
2
)
⋯
Cov
(
X
n
,
X
n
)
)
{\displaystyle \Sigma ={\begin{pmatrix}\operatorname {Cov} (X_{1},X_{1})&\operatorname {Cov} (X_{1},X_{2})&\cdots &\operatorname {Cov} (X_{1},X_{n})\\\operatorname {Cov} (X_{2},X_{1})&\operatorname {Cov} (X_{2},X_{2})&\cdots &\operatorname {Cov} (X_{2},X_{n})\\\vdots &\vdots &\ddots &\vdots \\\operatorname {Cov} (X_{n},X_{1})&\operatorname {Cov} (X_{n},X_{2})&\cdots &\operatorname {Cov} (X_{n},X_{n})\end{pmatrix}}}
es decir, la
(
i
,
j
)
{\displaystyle (i,j)}
-ésima entrada de
Σ
{\displaystyle \Sigma }
corresponde a la covarianza entre
X
i
{\displaystyle X_{i}}
y
X
j
{\displaystyle X_{j}}
que puede ser representada como
Σ
i
j
=
Cov
(
X
i
,
X
j
)
{\displaystyle \Sigma _{ij}=\operatorname {Cov} (X_{i},X_{j})}
en particular, cuando
i
=
j
{\displaystyle i=j}
, entonces
Σ
i
i
=
Cov
(
X
i
,
X
i
)
=
Var
(
X
i
)
{\displaystyle \Sigma _{ii}=\operatorname {Cov} (X_{i},X_{i})=\operatorname {Var} (X_{i})}
por lo que la matriz
Σ
{\displaystyle \Sigma }
puede ser escrita como
Σ
=
(
Var
(
X
1
)
Cov
(
X
1
,
X
2
)
⋯
Cov
(
X
1
,
X
n
)
Cov
(
X
2
,
X
1
)
Var
(
X
2
)
⋯
Cov
(
X
2
,
X
n
)
⋮
⋮
⋱
⋮
Cov
(
X
n
,
X
1
)
Cov
(
X
n
,
X
2
)
⋯
Var
(
X
n
)
)
{\displaystyle \Sigma ={\begin{pmatrix}\operatorname {Var} (X_{1})&\operatorname {Cov} (X_{1},X_{2})&\cdots &\operatorname {Cov} (X_{1},X_{n})\\\operatorname {Cov} (X_{2},X_{1})&\operatorname {Var} (X_{2})&\cdots &\operatorname {Cov} (X_{2},X_{n})\\\vdots &\vdots &\ddots &\vdots \\\operatorname {Cov} (X_{n},X_{1})&\operatorname {Cov} (X_{n},X_{2})&\cdots &\operatorname {Var} (X_{n})\end{pmatrix}}}
Covarianza consigo misma
editar
La varianza es un caso particular de la covarianza cuando dos variables aleatorias son idénticas
Cov
(
X
,
X
)
=
Var
(
X
)
≡
σ
X
2
{\displaystyle \operatorname {Cov} (X,X)=\operatorname {Var} (X)\equiv \sigma _{X}^{2}}
Covarianza de combinaciones lineales
editar
Sean
X
{\displaystyle X}
,
Y
{\displaystyle Y}
,
W
{\displaystyle W}
y
V
{\displaystyle V}
variables aleatorias y
a
,
b
,
c
,
d
∈
R
{\displaystyle a,b,c,d\in \mathbb {R} }
entonces
Cov
(
X
,
a
)
=
0
{\displaystyle \operatorname {Cov} (X,a)=0\,}
Cov
(
X
,
X
)
=
Var
(
X
)
{\displaystyle \operatorname {Cov} (X,X)=\operatorname {Var} (X)}
, donde
Var
(
X
)
{\displaystyle \operatorname {Var} (X)}
denota la varianza de
X
{\displaystyle X}
.
Cov
(
X
,
Y
)
=
Cov
(
Y
,
X
)
{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {Cov} (Y,X)}
llamada propiedad de simetría.
Cov
(
a
X
,
b
Y
)
=
a
b
Cov
(
X
,
Y
)
{\displaystyle \operatorname {Cov} (aX,bY)=ab\operatorname {Cov} (X,Y)}
Cov
(
X
+
a
,
Y
+
b
)
=
Cov
(
X
,
Y
)
{\displaystyle \operatorname {Cov} (X+a,Y+b)=\operatorname {Cov} (X,Y)}
Cov
(
a
X
+
b
Y
,
c
W
+
d
V
)
=
a
c
Cov
(
X
,
W
)
+
a
d
Cov
(
X
,
V
)
+
b
c
Cov
(
Y
,
W
)
+
b
d
Cov
(
Y
,
V
)
{\displaystyle \operatorname {Cov} (aX+bY,cW+dV)=ac\operatorname {Cov} (X,W)+ad\operatorname {Cov} (X,V)+bc\operatorname {Cov} (Y,W)+bd\operatorname {Cov} (Y,V)}
Cov
(
X
,
Y
)
=
E
[
X
Y
]
−
E
[
X
]
E
[
Y
]
{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} [XY]-\operatorname {E} [X]\operatorname {E} [Y]}
, fórmula que suele emplearse en la práctica para calcular la covarianza.
Estas propiedades se deducen de manera casi directa de la definición de la covarianza.
Para una secuencia
X
1
,
X
2
,
…
,
X
n
{\displaystyle X_{1},X_{2},\dots ,X_{n}}
de variables aleatorias y para valores
a
1
,
a
2
,
…
,
a
n
∈
R
{\displaystyle a_{1},a_{2},\dots ,a_{n}\in \mathbb {R} }
se tiene
Var
(
∑
i
=
1
n
a
i
X
i
)
=
∑
i
=
1
n
a
i
2
σ
X
i
2
+
2
∑
i
,
j
:
i
<
j
a
i
a
j
Cov
(
X
i
,
X
j
)
=
∑
i
<
j
a
i
a
j
Cov
(
X
i
,
X
j
)
{\displaystyle {\begin{aligned}\operatorname {Var} \left(\sum _{i=1}^{n}a_{i}X_{i}\right)&=\sum _{i=1}^{n}a_{i}^{2}\sigma _{X_{i}}^{2}+2\sum _{i,j:i<j}a_{i}a_{j}\operatorname {Cov} (X_{i},X_{j})\\&=\sum _{i<j}a_{i}a_{j}\operatorname {Cov} (X_{i},X_{j})\end{aligned}}}
No correlación e Independencia
editar
A las variables aleatorias cuya covarianza es cero se dicen que son no correlacionadas.
Si
X
{\displaystyle X}
e
Y
{\displaystyle Y}
son variables aleatorias independientes entonces su covarianza es cero, esto es
Cov
(
X
,
Y
)
=
0
{\displaystyle {\text{Cov}}(X,Y)=0}
esto ocurre por la propiedad de independencia
E
[
X
Y
]
=
E
[
X
]
E
[
Y
]
{\displaystyle \operatorname {E} [XY]=\operatorname {E} [X]\operatorname {E} [Y]}
entonces reemplazando en la fórmula de la covarianza se obtiene
Cov
(
X
,
Y
)
=
E
[
X
Y
]
−
E
[
X
]
E
[
Y
]
=
E
[
X
]
E
[
Y
]
−
E
[
X
]
E
[
Y
]
=
0
{\displaystyle {\begin{aligned}\operatorname {Cov} (X,Y)&=\operatorname {E} [XY]-\operatorname {E} [X]\operatorname {E} [Y]\\&=\operatorname {E} [X]\operatorname {E} [Y]-\operatorname {E} [X]\operatorname {E} [Y]\\&=0\end{aligned}}}
Lo opuesto, sin embargo, generalmente no es cierto: algunos pares de variables aleatorias tienen covarianza cero pese a que no son independientes. Bajo algunas hipótesis adicionales, la covarianza de valor cero implica independencia, como por ejemplo en el caso de la distribución normal multivariante .
Relación con el producto escalar
editar
La mayoría de las propiedades de la covarianza se deducen de las del producto escalar :
Bilinealidad : para
a
,
b
∈
R
{\displaystyle a,b\in \mathbb {R} }
y las variables aleatorias
X
{\displaystyle X}
,
Y
{\displaystyle Y}
y
U
{\displaystyle U}
se cumple
Cov
(
a
X
+
b
Y
,
U
)
=
a
Cov
(
X
,
U
)
+
b
Cov
(
Y
,
U
)
{\displaystyle \operatorname {Cov} (aX+bY,U)=a\operatorname {Cov} (X,U)+b\operatorname {Cov} (Y,U)}
Simetría:
Cov
(
X
,
Y
)
=
Cov
(
Y
,
X
)
{\displaystyle {\text{Cov}}(X,Y)={\text{Cov}}(Y,X)}
Es un operador positivo definido :
Var
(
X
)
=
Cov
(
X
,
X
)
≥
0
{\displaystyle {\text{Var}}(X)={\text{Cov}}(X,X)\geq 0}
; además, si
Cov
(
X
,
X
)
=
0
{\displaystyle {\text{Cov}}(X,X)=0}
entonces
X
{\displaystyle X}
es una variable aleatoria constante.
De hecho, la covarianza es un producto interior sobre el espacio cociente de las variables aleatorias de momentos finitos iguales salvo constante.
Covarianza muestral
editar
Si
X
{\displaystyle X}
y
Y
{\displaystyle Y}
son variables aleatorias que toman los valores
x
i
{\displaystyle x_{i}}
y
y
i
{\displaystyle y_{i}}
para
i
=
1
,
2
,
…
,
n
{\displaystyle i=1,2,\dots ,n}
entonces se puede estimar la covarianza entre
X
{\displaystyle X}
y
Y
{\displaystyle Y}
, este estimador denotado por
S
x
y
{\displaystyle S_{xy}}
se define como
S
x
y
=
1
n
−
1
∑
i
=
1
n
(
x
i
−
x
¯
)
(
y
i
−
y
¯
)
=
1
n
−
1
[
∑
i
=
1
n
x
i
y
i
−
n
x
¯
y
¯
]
{\displaystyle {\begin{aligned}S_{xy}&={\frac {1}{n-1}}\sum _{i=1}^{n}{(x_{i}-{\overline {x}})(y_{i}-{\overline {y}})}\\&={\frac {1}{n-1}}[\sum _{i=1}^{n}{x_{i}y_{i}}-n{\bar {x}}{\bar {y}}]\end{aligned}}}
donde
x
¯
=
∑
i
=
1
n
x
i
n
y
y
¯
=
∑
i
=
1
n
y
i
n
{\displaystyle {\overline {x}}=\sum _{i=1}^{n}{\frac {x_{i}}{n}}\qquad {\text{y}}\qquad {\overline {y}}=\sum _{i=1}^{n}{\frac {y_{i}}{n}}}
denotan la media muestral.
El estimador
S
x
y
{\displaystyle S_{xy}}
tiene la propiedad de que es un estimador insesgado.
Interpretación de la covarianza
editar
Si
S
x
y
>
0
{\displaystyle S_{xy}>{0}}
hay dependencia directa (positiva), es decir, a grandes valores de
X
{\displaystyle X}
corresponden grandes valores de
Y
{\displaystyle Y}
.
Si
S
x
y
=
0
{\displaystyle S_{xy}={0}}
se interpreta como la no existencia de una relación lineal entre las dos variables.
Si
S
x
y
<
0
{\displaystyle S_{xy}<{0}}
hay dependencia inversa o negativa, es decir, a grandes valores de
X
{\displaystyle X}
corresponden pequeños valores de
Y
{\displaystyle Y}
.
Véase también
editar
Enlaces externos
editar