Subespacio invariante

En álgebra lineal, un subespacio invariante es un subespacio vectorial que contiene las transformadas de sus vectores, dada la aplicación lineal correspondiente.

Gráfica de dos vectores y sus respectivas transformaciones mediante una rotación respecto al eje z. El vector contenido en el plano xy (amarillo) tiene una transformada (verde) en el mismo plano

Si se tienen un subespacio S y una aplicación f, de manera que las transformadas de los vectores de S a través de f pertenecen al mismo S, se dice que el subespacio S es f-invariante, o invariante por f.[1]

Definición editar

Sea   un conjunto de vectores sobre el cual está definida una estructura de espacio vectorial. Dado un endomorfismo   se dice que

Un subespacio   de   es un subespacio invariante por   (o f-invariante) si para todo vector   se cumple que  .

En otras palabras,   es un subespacio invariante si  .[2]

Ejemplos editar

  • Consideremos   y f una aplicación lineal que rota un vector dado alrededor del eje z. Notemos que el plano xy (llamémoslo  ) es un subespacio de  .

Al rotar un vector cualquiera de este plano alrededor del eje z se obtiene otro vector en el mismo plano. Es decir que para todo   se tiene que  , o bien, si transformamos cualquier vector contenido en xy obtenemos otro vector también contenido en este plano. Por lo tanto, el plano S es f-invariante.

  • El núcleo de una aplicación lineal f es un subespacio f-invariante.
Demostración
Si definimos   entonces su núcleo está dado por el conjunto   donde 0 es el vector nulo definido en  .

Para toda aplicación lineal se cumple que  , entonces  , como   y   es f-invariante ya que toda imagen de un vector del núcleo también pertenece a él.

  • La imagen de una aplicación lineal también es un subespacio invariante frente la aplicación en cuestión.
Demostración
Sea f un endomorfismo. Podría ocurrir que todo vector de la imagen tuviera a su vez una transformada, en cuyo caso   y concluiría la demostración.

No obstante, podría ser que sólo algunos vectores tuvieran imagen. Veamos que es imposible que, en un endomorfismo, ninguno la tenga, puesto que el vector nulo siempre tiene como imagen al vector nulo, por lo tanto pertenece a la imagen de f y a su vez podemos volver a aplicar f al vector de la imagen para obtener cero nuevamente. Como  .

Conclusión:   y queda demostrado que   es f-invariante.

  • Consideremos ahora una aplicación lineal f con un vector propio v. El subespacio generado por v es un subespacio f-invariante.
Demostración
Se puede comprobar que el conjunto   (con   el cuerpo sobre el cual están definidos los escalares en  ) es un subespacio de   (basta con comprobar que el elemento neutro e inverso para la suma, así como la suma de dos vectores y el producto de un vector por un escalar están contenidos en  ). Este conjunto se llama espacio propio asociado al autovalor  .

Es simple demostrar que es invariante, ya que para todo   su transformada  , basta ver que  . En conclusión, todo autovector transformado también es autovector y, por lo tanto, el espacio   que generan es invariante.

  • Dado un polinomio  , el núcleo y la imagen de la aplicación resultante de aplicar   a  ,   y  , son subespacios  -invariantes.
Demostración
Veamos la invariancia del núcleo, que denotaremos  :
Sea  . Veamos que  .
 , por lo que tenemos lo que queríamos.

Veamos ahora la invariancia de la imagen, que denotaremos  :

Sea   tal que   Veamos que  :
  tal que  
  • Vamos a un ejemplo más concreto, consideremos la transformación lineal   definida como T(x)=A x donde   entonces el subespacio generado por el vector (1,0,0) es un subespacio invariante frente a T, ya que el vector mencionado es un autovector de T (está asociado al autovalor 1, se ve que   ).
  • Generalizando el ejemplo anterior, dada la Forma canónica de Jordan de una transformación lineal, cada uno de los subespacios asociados a los bloques de Jordan son subespacios invariantes frente a la transformación en cuestión.

Simetrías editar

  • Consideremos el plano R2 y la transformación lineal que a cada vector de dicho plano le asigna su reflexión respecto al eje y, es decir T(x,y)=(-x,y). El subespacio generado por el vector (1,0) es T-invariante, mientras que (1,1) no.
  • Consideremos el plano R2 y la transformación lineal que a cada vector de dicho plano le asigna la reflexión respecto al origen de coordenadas, es decir T(x,y)=(-x,-y). Entonces todo subespacio de R2 es invariante frente a dicha reflexión.

Observación editar

Notemos que la palabra «invariante» puede generar confusión en el siguiente sentido: un subespacio puede ser invariante y sin embargo «variar» bajo la transformación en cuestión. Esto es posible dado que la condición para que el subespacio sea invariante es   y no  .

Descomposición en subespacios invariantes editar

Dado cualquier endomorfismo de un espacio vectorial  , siempre se puede descomponer   como suma directa de subespacios invariantes por  . En esta sección veremos la demostración de ello.

Notemos en primer lugar que todo endomorfismo de   tiene algún polinomio anulador. Por ejemplo, por el teorema de Cayley-Hamilton el polinomio característico de   lo es. Además, hace falta tener en cuenta que para cualquier polinomio,   es  -invariante (está demostrado más arriba). Por último, necesitaremos utilizar que todo polinomio se puede descomponer en factores irreducibles y el teorema de Bézout aplicado a polinomios, que afirma que si   es el máximo común divisor de dos polinomios  , entonces existen polinomios   tales que  .

Con todo esto, ya podemos enunciar y demostrar el teorema importante:

Sean   un espacio vectorial sobre   de dimensión finita  ,   un endomorfismo de   y   un polinomio que descompone en factores irreducibles como   (suponiendo que   si   ).

Entonces,

 

Vemos el resultado por inducción sobre  .

 

Si  , tenemos que el teorema en este caso afirma que  , lo que es trivial.

 

Tenemos que  , con  . Podemos aplicar entonces el teorema de Bézout:   tales que  .
Si tomamos la anterior expresión y la aplicamos a  , tenemos que  . Tomamos ahora   arbitrario. Aplicando ahora la anterior expresión en   obtenemos que
 
Queremos ver que  . Veamos las dos inclusiones y la suma directa por separado.
  Queremos ver que  .
Como   es un subespacio vectorial, basta ver que  . Lo vemos para   y es análogo para  .
Sea   arbitrario. Queremos ver que  .
 .
Por tanto,  .
  Queremos ver que  .
Sea  . Por  , tenemos que  , con  
Observamos que  
y simétricamente tenemos que  , por lo que  
Como  , tenemos que   y, como   era arbitrario,  .
  Queremos ver que la suma es directa  .
Sea, pues,   y queremos ver que necesariamente  . Aplicando  ,
 
Por lo que la suma es directa.

Paso inductivo.

Sea   y supongamos el enunciado del teorema cierto para  . Tenemos que  
Como para  ,  , tenemos que  .
Pero, por hipótesis de inducción,  .
Por tanto, por estas dos últimas igualdades,  

Como corolario de este teorema tenemos que   se puede descomponer como suma directa de subespacios  -invariantes, pues basta coger   anulador de  . El polinomio característico, por ejemplo, por el teorema de Cayley-Hamilton. Así,   y, por el teorema anterior,   y cada uno de esos núcleos es  -invariante, por ser el núcleo de un polinomio aplicado a  .

Referencias editar

  1. Raya, Andrés; Rubio, Rafael. Álgebra y geometría lineal (2007 edición). Reverte. p. 299. ISBN 9788429150384. 
  2. Castellet, Manuel; Llerena, Irener (1996). Álgebra lineal y geometría. Reverte. p. 159. ISBN 9788429150094. 

Véase también editar