Factorización LU

En el álgebra lineal, la factorización o descomposición LU (del inglés Lower-Upper) es una forma de factorización de una matriz como el producto de una matriz triangular inferior y una superior. Debido a la inestabilidad de este método, deben tenerse en cuenta algunos casos especiales, por ejemplo, si uno o varios elementos de la diagonal principal de la matriz a factorizar es cero, es necesario premultiplicar la matriz por una o varias matrices elementales de permutación. Existe un segundo método llamado factorización o con pivote. Esta descomposición se usa en el análisis numérico para resolver sistemas de ecuaciones (más eficientemente) o encontrar las matrices inversas.

DefinicionesEditar

Sea   una matriz no singular (si lo fuera, entonces la descomposición podría no ser única). Tenemos que

 ,

donde   y   son matrices inferiores y superiores triangulares respectivamente.

Para matrices  , esto es .


Por otro lado la descomposición PLU tiene esta forma:

 

Con   matrices triangulares inferiores,   matrices de permutación y   una matriz triangular superior.

Para determinar   tenemos que

 

y cada   está dado por:

  =  

Esto se debe a que   es igual a  , pero con los elementos de la subdiagonal permutados.

Otra forma de ver este tipo de factorización es:  . Recordando que las matrices de permutación. La matriz permutación es invertible y su inversa es su traspuesta

UnicidadEditar

Las matrices  y   son únicas, si la matriz no es singular. En caso contrario pueden no ser únicas.

Demostración:

Dada la matriz  , tenemos que   y  . Recordemos que   son invertibles por tener el determinante distinto de cero entonces:

 , y también  Entonces   es una matriz triangular inferior, con unos en la diagonal y   es triangular superior (recordando que el producto matricial de triangulares superiores/inferiores es triangular superior/inferior). La única matriz que cumple estas dos propiedades es la identidad. Por lo tanto:

 y  .

Con lo cual se concluye que   y  

AlgoritmosEditar

La factorización  es básicamente una forma modificada de la eliminación gaussiana. Transformamos la matriz  en una matriz triangular superior  anulando los elementos debajo de la diagonal. Entonces,

 ,

donde   son matrices elementales, que representan los distintos pasos de la eliminación. Luego recordando que la inversa de una matriz elemental, es otra matriz elemental tenemos que

 .

Llamamos  a   una matriz triangular inferior.

AplicacionesEditar

Resolviendo sistemas de álgebra linealEditar

Dada la ecuación matricial  .

Queremos la solución para un determinando  y  . Los pasos son los siguientes:

  1. Primero, resolvemos   para  .
  2. Segundo, resolvemos   para  .

Nótese que ya tenemos las matrices  y  . La ventaja de este método es que es computacionalmente eficiente, porque podemos elegir el vector b que nos parezca y no tenemos que volver a hacer la eliminación de Gauss cada vez.

Factorización LU con pivoteoEditar

Al utilizar la técnica de triangulación de Gauss para obtener la descomposición L-U de una matriz A podemos encontrarnos con el mismo problema de encontrar un coeficiente en la diagonal que sea 0 o un mal condicionamiento. Podemos entonces utilizar la misma técnica de pivotación : buscar el siguiente elemento en la columna que sea distinto de 0 o, mejor aún, el de mayor valor absoluto.

Pero una vez obtenida la descomposición  , si queremos aplicarla a resolver un sistema de ecuaciones, tendremos que tener en cuenta la “historia” o registro de las pivotaciones efectuadas para aplicar al vector de términos independientes.

Esto se realiza mediante la matriz de permutación  , que consiste en efectuar sobre la matriz identidad, las mismas permutaciones de filas que se vayan efectuando sobre la matriz que se está triangulando por Gauss.

Al mismo tiempo se efectúan las mismas permutaciones sobre los elementos subdiagonal de la matriz L.

Así, si tenemos, por ejemplo, el sistema:

 

y  y  son las matrices obtenidas de la matriz  como descomposición   por triangulación de Gauss con pivotaciones recogidas en la matriz de permutación  , es fácil comprobar que

 

Por tanto los procesos de sustitución descendente y ascendente los aplicamos a :

  1. Primero, resolvemos   para  
  2. Segundo, resolvemos   para  

Matriz InversaEditar

Las matrices  y  pueden ser usadas para calcular la matriz inversa mediante:

 .

Algunas implementaciones que invierten matrices usan este método.

Determinante de una matrizEditar

Las matrices   y   pueden ser usadas para calcular el determinante de la matriz   muy eficientemente porque   y los determinantes de matrices triangulares son simplemente el producto de los elementos de sus diagonales. En particular, si   es una matriz triangular en cuya diagonal todos los elementos son uno, entonces: 

La misma aproximación al problema puede ser usada para factorizaciones LUP en las que aparece matrices de permutación, pues el determinante de una matriz de permutación  es , donde   es el número de permutaciones de filas en la descomposición.