Matriz de covarianza

En estadística y teoría de la probabilidad, la matriz de covarianza es una matriz que contiene la covarianza entre los elementos de un vector. Es la generalización natural a dimensiones superiores del concepto de varianza de una variable aleatoria escalar.

DefiniciónEditar

Si las entradas del vector-columna

 

son variables aleatorias, cada una con varianza finita, entonces la matriz de covarianza Σ es la matriz cuya entrada (ij) es la covarianza

 

donde

 

es el valor esperado de la entrada i-ésima del vector X. En otras palabras, tenemos

 

Como una generalización de la varianzaEditar

La anterior definición es equivalente a la igualdad matricial

 

Por tanto, se entiende que esto generaliza a mayores dimensiones el concepto de varianza de una variable aleatoria escalar X, definida como

donde

 


PropiedadesEditar

Para   y  , las siguientes propiedades fundamentales se demuestran correctas:

  1.  

  2.   es semidefinida positiva

  3.  

  4.  

  5.  

  6. Si los vectores   y   son de igual dimensión, entonces  

  7.  

  8. Si   y   son independientes, entonces  

donde   y   son vectores aleatorios de dimensión  ,   es un vector aleatorio  ,   es  ,   y   son matrices de  .

La matriz de covarianza (aunque muy simple) es una herramienta muy útil en varios campos. A partir de ella se puede derivar una transformación lineal que puede de-correlacionar los datos o, desde otro punto de vista, encontrar una base óptima para representar los datos de forma óptima (véase cociente de Rayleigh para la prueba formal y otras propiedades de las matrices de covarianza). Esto se llama análisis del componente principal (PCA por sus siglas en inglés) en estadística , y transformada de Karhunen-Loève en procesamiento de la imagen.


Lecturas avanzadasEditar