Descomposición en valores singulares

En álgebra lineal, la descomposición en valores singulares (o DVS) de una matriz real o compleja es una factorización de la misma con muchas aplicaciones en estadística y otras disciplinas.

Definiciones previas editar

Dada una matriz real  , los valores propios de la matriz cuadrada, simétrica y semidefinida positiva   son siempre reales y mayores o iguales a cero. Teniendo en cuenta el producto escalar estándar vemos que:


 , o sea que es simétrica.


 , es decir   es semidefinida positiva.



Por ser   una matriz real simétrica, todos sus valores propios son reales —en particular, como es semidefinida positiva, son todos mayores o iguales a cero—. Ver demostración.


Definición editar

Sean   los valores propios de la matriz   ordenados de mayor a menor. Entonces   es el  -ésimo valor singular de la matriz  .

Teorema editar

Sea   y   los valores propios de  . Es decir, los primeros   valores propios no nulos, ordenados de manera decreciente, y los   valores propios nulos.

Sea   una base ortonormal de   formada por valores propios de   —que existe por el teorema espectral—. Entonces:


  1. Los vectores   son ortogonales dos a dos y  .
  2.   es una base ortonormal del subespacio fundamental  .
  3.   es una base ortonormal del subespacio fundamental  .
  4.   es decir, el rango de la matriz   coincide con la cantidad de valores singulares no nulos.

Demostración editar

  1.  . Teniendo en cuenta este resultado,  .
  2. Como la familia de vectores   es ortonormal —en particular, linealmente independiente—, los productos   son combinaciones lineales de las columnas de  , por lo que el subespacio generado por estos productos está contenido en  . Además, los vectores   son ortogonales dos a dos —en particular, linealmente independientes—, por lo tanto deducimos que  , de donde  . Así, teniendo en cuenta lo demostrado en el punto anterior,   es una base ortonormal de  .
  3. Es claro que si la familia de vectores  , está asociada a valores propios nulos, teniendo en cuenta lo visto en el punto 1 y también sabiendo que   —demostración en el último punto de esta lista de propiedades— se ve que   es una base ortonormal de  
  4. Mirando la dimensión del subespacio hallado en el punto 2 de esta demostración, es claro que  .

Descomposición en valores singulares de una matriz editar

Una DVS de   es una factorización del tipo   con   y   ortogonales y   una matriz formada por los valores singulares de   en su diagonal principal ordenados de mayor a menor, y ceros en el resto de entradas.

Teorema editar

Toda matriz   admite una DVS.

Demostración editar

Sean   los valores propios de   ordenados de esta manera. Sea   una base ortonormal de   formada por vectores propios de  , cada uno asociado —en orden— a un valor propio.


Recordemos que los vectores   son ortogonales dos a dos, con  . Si llamamos  , vemos que:

  •   son ortonormales. Entonces, si  , podemos completar con vectores   hasta formar una base ortonormal de  


  •  


  • Reescribiendo este último sistema de ecuaciones de manera matricial con las matrices   ortogonal y


 


Claramente   y, finalmente, como   es una matriz ortogonal,  . Esta es la ecuación de una DVS de  .

Viendo esta descomposición, es claro que la matriz   puede escribirse como combinación lineal de matrices de rango 1 tal que:


 

Descomposición en valores singulares reducida (DVS reducida) editar

Este tipo de descomposición resulta de quedarse sólo con los   vectores propios unitarios asociados a los   valores singulares no nulos. Las matrices  ,   y   entonces son:


 

 

 


 


Observación:   es una matriz diagonal de tamaño  .

Propiedades editar

Las matrices a continuación denotadas con la letra  , son de proyección sobre el subespacio indicado. Las matrices denotadas con la letra   son las identidades del orden denotado.

  •  


  •  


  •  


  •  


  •  


  •  


  •   es una base ortonormal de  


  •   es una base ortonormal de  


  •   es una base ortonormal de  


  •   es una base ortonormal de  


  •   implica que  .


  •   —una diagonalización ortogonal de  —.


  • Las matrices simétricas   y   tienen los mismos valores propios no nulos y, por lo tanto, los valores singulares no nulos de la matriz   pueden calcularse usando cualquiera de estas dos. Además, todos los vectores del conjunto   son vectores propios de   y también, como ya se mencionó,  . Esto es fácil de ver, teniendo en cuenta que


 


Este resultado es útil para facilitar el cálculo de valores singulares. Por ejemplo, dada  , entonces   tiene un polinomio característico de grado 8 y   tiene un polinomio característico de grado 2. Como los valores propios no nulos de ambas matrices coinciden, el cálculo de valores singulares de   se hace más sencillo.


Aplicaciones editar

Pseudoinversa editar

Para una matriz no cuadrada   descompuesta en valores singulares  , su pseudoinversa es

 

donde   es la pseudoinversa de  , que siendo una matriz diagonal se computa reemplazando todos los valores no nulos de la diagonal por sus recíprocos, y luego trasponiendo.

La pseudoinversa es un camino para resolver cuadrados mínimos lineales.

Solución de norma mínima editar

La pseudoinversa obtenida mediante la DVS permite hallar   que minimiza la norma  . La solución esː

 

Se aplica para aproximar la solución del sistema de ecuaciones indeterminado  .

Solución de ecuaciones lineales homogéneas editar

Un conjunto de ecuaciones lineales homogéneas se puede escribir en la forma   para una matriz   y un vector  . Una situación típica consiste hallar   no nulo, conociendo  . Las soluciones son todos los vectores singulares cuyo valor singular es cero, y toda combinación lineal entre ellos. Si   no tiene ningún valor singular cero, entonces no hay solución aparte de  .

Minimización de cuadrados mínimos totales editar

El problema de minimización por cuadrados mínimos totales consiste en hallar   que minimiza la norma   bajo la condición  :

 .

La solución es el vector singular correspondiente al mínimo valor singular no cero.

Ejemplos de cálculo de DVS editar

Ejemplo 1 editar

Si  , entonces  , cuyos autovalores son   y   asociados a los autovectores   y  . Ya que la matriz es simétrica, estos vectores son ortogonales (ver diagonalización de matrices Hermíticas).

Entonces, los valores singulares de   son   y  . Observamos que, efectivamente, la cantidad de valores singulares no nulos coincide con el rango de la matriz.


Ahora buscamos los vectores   que deberán cumplir


 


Esto es   y  .


Entonces completamos a una base ortonormal de  ,  .



Nuestras matrices ortogonales son:


  y  



Y la matriz compuesta por los valores singulares ordenados:


 


Por lo tanto la DVS de   es:


 .


Y la DVS reducida es


 


Observación: No siempre ocurre que   como en este caso.

Ejemplo 2 editar

Sea  . Entonces, para hacer más sencillo el proceso, calculamos   que tiene un polinomio característico de grado 2. Los autovalores son   y   asociados a los autovectores de norma unitaria   y  . Nuestro único valor singular no nulo es  .


Observaciones:

  • Es claro que   coincide con la cantidad de valores singulares no nulos de la matriz y además  .
  • Sabemos que   tiene un polinomio característico de grado 3. Sus raíces son  ,  . Veámoslo:


 .


Ahora, sabemos que  , es decir  . Entonces, resulta del único valor singular no nulo:  .


Ahora, completamos a una base ortonormal de  ,  . En este ejemplo, nuestras matrices ortogonales son:


  y  .



 .


Y la DVS resulta entonces


 .


Nota: la DVS reducida se muestra en la segunda igualdad de la ecuación anterior.

Véase también editar