Descomposición en valores singulares

En álgebra lineal, la descomposición en valores singulares (o DVS) de una matriz real o compleja es una factorización de la misma con muchas aplicaciones en estadística y otras disciplinas.

Definiciones previas editar

Dada una matriz real  , los autovalores de la matriz cuadrada, simétrica y semidefinida positiva   son siempre reales y mayores o iguales a cero. Teniendo en cuenta el producto interno canónico vemos que:


 . O sea que es simétrica


 , es decir   es semidefinida positiva, es decir, todos sus autovalores son mayores o iguales a cero.


Si   es el i-ésimo autovalor asociado al i-ésimo autovector, entonces  . Esto es una propiedad de las matrices simétricas. Ver demostración.


Definición editar

Sean   los autovalores de la matriz   ordenados de mayor a menor. Entonces   es el  -ésimo valor singular de la matriz  .

Teorema editar

Sea   y   los autovalores de  . Es decir los primeros  autovalores no nulos, ordenados de manera decreciente y los   autovalores nulos.

Sea   una base ortonormal de   formada por autovectores de  . Entonces:


  1.   es un conjunto ortogonal y  
  2.   es una base ortonormal del subespacio fundamental  .
  3.   es una base ortonormal del subespacio fundamental  .
  4.   es decir, el rango de la matriz   coincide con la cantidad de valores singulares no nulos.

Demostración editar

  1.  . Teniendo en cuenta este resultado  
  2. Como el conjunto de los vectores  ,  , es ortonormal (por lo tanto linealmente independiente), se ve que hacer el producto   es ni más ni menos que una combinación lineal de las columnas de la matriz; por lo que el espacio generado por estos productos y las columnas de la matriz es el mismo. Por lo tanto, teniendo en cuenta lo demostrado en el punto anterior,   es una base ortonormal de  
  3. Es claro que si los vectores  ,  , están asociados a autovalores nulos, teniendo en cuenta lo visto en el punto 1 y también sabiendo que   (demostración en el último punto de esta lista de propiedades) se ve que   es una base ortonormal del  
  4. Mirando la dimensión del subespacio hallado en el punto 2 de esta demostración, es claro que  

Descomposición en valores singulares de una matriz editar

Una DVS de   es una factorización del tipo   con  ,   ortogonales y   una matriz formada con los valores singulares de   en su diagonal principal ordenados de mayor a menor.

Teorema editar

Toda matriz   admite una DVS.

Demostración editar

Sean   los autovalores de   ordenados de esta manera. Sea   una base ortonormal de   formada por autovectores de  , cada uno asociados (en orden) a un autovalor.


Recordemos que el conjunto   es ortogonal, con  . Si llamamos  , vemos que:

  •   es un conjunto ortonormal. Entonces, si   podemos completar con   hasta formar una base ortonormal de  


  •  


  • Reescribiendo este último sistema de ecuaciones de manera matricial con las matrices   ortogonal y


 


Claramente   y, finalmente, como   es una matriz ortogonal  . Esta es la ecuación de una DVS de  .

Viendo esta descomposición, es claro que la matriz   puede escribirse como combinación lineal de matrices de rango 1 tal que:


 

Descomposición en valores singulares reducida (DVS reducida) editar

Este tipo de descomposición resulta de quedarse sólo con los   autovectores unitarios asociados a los   valores singulares no nulos. Las matrices  ,   y   entonces son:


 

 

 


 


Observación:   es una matriz diagonal de dimensión  .

Propiedades editar

Las matrices a continuación denotadas con la letra  , son de proyección sobre el subespacio indicado. Las matrices denotadas con la letra   son las identidades del orden denotado.

  •  


  •  


  •  


  •  


  •  


  •  


  •   es una base ortonormal de  


  •   es una base ortonormal de  


  •   es una base ortonormal de  


  •   es una base ortonormal de  


  •  


  •   (Una diagonalización ortogonal de  .)


  • Las matrices simétricas   y   tienen los mismos autovalores no nulos y, por lo tanto, los valores singulares no nulos de la matriz   pueden calcularse usando cualquiera de estas 2. Además, todos los vectores del conjunto   son autovectores de   y también, como ya se mencionó,  . Esto es fácil de ver, teniendo en cuenta que:


 


Este resultado es útil para facilitar el cálculo de valores singulares. Por ejemplo, dada  , entonces   tiene un polinomio característico de grado 8 y   tiene un polinomio característico de grado 2. Como los autovalores no nulos de ambas matrices coinciden, el cálculo de valores singulares de   se hace más sencillo.


Aplicaciones editar

Pseudoinversa editar

Para una matriz no cuadrada   descompuesta en valores singulares  , su pseudoinversa es

 

donde   es la pseudoinversa de  , que siendo una matriz diagonal se computa reemplazando todos los valores no ceros de la diagonal por sus recíprocos, y luego trasponiendo.

La pseudoinversa es un camino para resolver cuadrados mínimos lineales.

Solución de norma mínima editar

La pseudoinversa obtenida mediante la DVS permite hallar   que minimiza la norma  . La solución esː

 

Se aplica para aproximar la solución del sistema de ecuaciones indeterminado  .

Solución de ecuaciones lineales homogéneas editar

Un conjunto de ecuaciones lineales homogéneas se puede escribir   para una matriz   y un vector  . Una situación típica consiste hallar   no cero, conociendo  . Las soluciones son todos los vectores singulares cuyo valor singular es cero, y toda combinación lineal entre ellos. Si   no tiene ningún valor singular cero, entonces no hay solución aparte de  .

Minimización de cuadrados mínimos totales editar

El problema de minimización por cuadrados mínimos totales consiste en hallar   que minimiza la norma   bajo la condición  .

  para  

La solución es el vector singular correspondiente al mínimo valor singular no cero.

Ejemplos de cálculo de DVS editar

Ejemplo 1 editar

Si  , entonces  , cuyos autovalores son   y   asociados a los autovectores   y  . Ya que la matriz es simétrica, estos vectores son ortogonales (ver diagonalización de matrices Hermíticas).

Entonces, los valores singulares de   son   y  . Observamos que, efectivamente, la cantidad de valores singulares no nulos coincide con el rango de la matriz.


Ahora buscamos los vectores   con  , que deberán cumplir


 


Esto es   y  .


Entonces completamos una base ortonormal de   con  .



Nuestras matrices ortogonales son:


  y  



Y la matriz compuesta por los valores singulares ordenados:


 


Por lo tanto la DVS de   es:


 .


Y la DVS reducida es


 


Observación: No siempre ocurre que   como en este caso.

Ejemplo 2 editar

Sea  . Entonces, para hacer más sencillo el proceso, calculamos   que tiene un polinomio característico de grado 2. Los autovalores son   y   asociados a los autovectores de norma unitaria   y  . Nuestro único valor singular no nulo es  .


Observaciones:

  • Es claro que   coincide con la cantidad de valores singulares no nulos de la matriz y además  
  • Sabemos que   tiene un polinomio característico de grado 3. Entonces, sus raíces son  ,  . Veámoslo:


 


Ahora, sabemos que  , es decir  . Entonces, resulta del único Valor singular no nulo:  .


Ahora, completamos una base ortonormal de   con  . En este ejemplo, nuestras matrices ortogonales son:


  y  



 


Y la DVS resulta entonces:


 


Nota: la DVS reducida se muestra en la segunda igualdad de la ecuación anterior.

Véase también editar