Una matriz hermitiana (o hermítica , en memoria del matemático francés Charles Hermite ) es una matriz cuadrada de elementos complejos que tiene la característica de ser igual a su propia traspuesta conjugada . Es decir, el elemento en la i -ésima fila y j -ésima columna es igual al conjugado del elemento en la j -ésima fila e i -ésima columna, para todos los índices i y j :
a
i
,
j
=
a
j
,
i
¯
{\displaystyle a_{i,j}={\overline {a_{j,i}}}}
o, escrita con la traspuesta conjugada A *:
A
=
(
A
T
)
∗
{\displaystyle A=(A^{T})^{*}\;}
Por ejemplo,
A
=
[
3
2
+
i
2
−
i
1
]
{\displaystyle A={\begin{bmatrix}3&2+i\\2-i&1\end{bmatrix}}}
es una matriz hermítica.
Sea
A
=
B
+
i
C
{\displaystyle A=B+iC\,}
, donde
A
{\displaystyle A\,}
es hermitiana y
B
{\displaystyle B\,}
y
C
{\displaystyle C\,}
reales, entonces
B
{\displaystyle B\,}
es simétrica (
B
=
B
T
{\displaystyle B=B^{T}\,}
) y
C
{\displaystyle C\,}
antisimétrica (
C
=
−
C
T
{\displaystyle C=-C^{T}\,}
).
La inversa de una matriz hermitiana es también hermitiana, siempre y cuando la matriz inicial sea invertible (
det
A
≠
0
{\displaystyle \det A\neq 0}
).
En relación con la propiedad 1, los autovalores de estas matrices son reales.
En una matriz hermitiana, los elementos de la diagonal principal son reales.
El determinante de una matriz hermitiana es un número real.
Diagonalización de matrices hermíticas
editar
Sea
A
∈
k
n
×
n
(
k
=
R
ó
C
)
{\displaystyle A\in \Bbbk ^{n\times n}\,\,(\Bbbk =\mathbb {R} \,\,{\text{ó}}\,\,\mathbb {C} )}
Hermítica, es decir
A
=
A
H
{\displaystyle A=A^{H}\,}
. Entonces
A
{\displaystyle A\,}
es diagonalizable unitariamente. O sea, se la puede descomponer de la siguiente manera:
A
=
P
⋅
Δ
⋅
P
H
{\displaystyle A=P\cdot \Delta \cdot P^{H}}
En donde:
P
{\displaystyle P\,}
es una matriz unitaria y el conjunto
col
(
P
)
{\displaystyle \operatorname {col} (P)\,}
es ortonormal y está formado por autovectores de
A
{\displaystyle A\,}
asociados a sus respectivos autovalores . Estos vectores deben ir en orden , respecto de sus autovalores.
Δ
=
diag
[
λ
1
⋯
λ
n
]
T
{\displaystyle \Delta =\operatorname {diag} \left[\lambda _{1}\quad \cdots \quad \lambda _{n}\right]^{T}}
una matriz diagonal formada con autovalores de
A
{\displaystyle A\,}
(todos reales)
P
∈
k
n
×
n
{\displaystyle P\in \Bbbk ^{n\times n}}
es unitaria si y sólo si
P
⋅
P
H
=
P
H
⋅
P
=
I
n
{\displaystyle P\cdot P^{H}=P^{H}\cdot P=I_{n}}
lo que implica que son ortogonales , es decir,
col
i
(
P
)
⊥
col
j
(
P
H
)
{\displaystyle \quad \operatorname {col} _{i}(P)\,\,\bot \,\,\operatorname {col} _{j}(P^{H})}
para todo i distinto de j , y si i es igual a j entonces
⟨
col
i
(
P
)
,
col
i
(
P
H
)
⟩
=
1
{\displaystyle \langle \operatorname {col} _{i}(P),\,\,\operatorname {col} _{i}(P^{H})\rangle =1}
. Donde
⟨
⋅
,
⋅
⟩
{\displaystyle \langle \cdot ,\cdot \rangle }
es el producto interno canónico en
k
n
{\displaystyle \Bbbk ^{n}}
.
Entonces el conjunto
col
(
P
)
{\displaystyle \operatorname {col} (P)\,}
es una base ortonormal de
k
n
{\displaystyle \Bbbk ^{n}\,}
. Observar que la implicación de que el producto interno de 1 si coinciden los subíndices, implica que
fil
(
P
)
{\displaystyle \operatorname {fil} (P)\,}
es un conjunto ortonormal.
Caso particular: cuando la matriz unitaria cumple además
P
=
P
T
{\displaystyle P=P^{T}\,}
(observar que se trata sólo del caso real), entonces ocurre que
P
⋅
P
T
=
P
⋅
P
=
P
2
=
I
n
{\displaystyle P\cdot P^{T}=P\cdot P=P^{2}=I_{n}}
. En este caso la matriz
P
{\displaystyle P\,}
se dice involutiva y está asociada a una reflexión respecto de un plano. Ver transformación de Householder
Analicemos el siguiente caso suponiendo
A
⋅
v
=
λ
⋅
v
{\displaystyle A\cdot v=\lambda \cdot v}
. O sea
λ
∈
k
{\displaystyle \lambda \in \Bbbk }
autovalor de
A
{\displaystyle A\,}
asociado al autovector
v
∈
k
n
{\displaystyle v\in \Bbbk ^{n}}
:
λ
¯
⟨
v
,
v
⟩
=
⟨
λ
v
,
v
⟩
=
⟨
A
v
,
v
⟩
=
(
A
v
)
H
⋅
v
=
v
H
A
H
⋅
v
=
v
H
A
⋅
v
=
⟨
v
,
A
v
⟩
=
⟨
v
,
λ
v
⟩
=
λ
⟨
v
,
v
⟩
{\displaystyle {\overline {\lambda }}\langle v,v\rangle =\langle \lambda v,v\rangle =\langle Av,v\rangle =(Av)^{H}\cdot v=v^{H}A^{H}\cdot v=v^{H}A\cdot v=\langle v,Av\rangle =\langle v,\lambda v\rangle =\lambda \langle v,v\rangle }
De donde
λ
¯
⟨
v
,
v
⟩
=
λ
⟨
v
,
v
⟩
⟺
λ
¯
=
λ
⟺
λ
∈
R
{\displaystyle {\overline {\lambda }}\langle v,v\rangle =\lambda \langle v,v\rangle \Longleftrightarrow {\overline {\lambda }}=\lambda \Longleftrightarrow \lambda \in \mathbb {R} }
Sean
v
1
,
⋯
,
v
n
{\displaystyle v_{1},\cdots ,v_{n}}
autovectores de la matriz Hermítica
A
∈
k
n
×
n
{\displaystyle A\in \Bbbk ^{n\times n}\,}
asociados a los autovalores
λ
1
,
⋯
,
λ
n
{\displaystyle \lambda _{1},\cdots ,\lambda _{n}}
respectivamente. Supongamos que al menos, existe un par de estos últimos distintos, es decir,
λ
i
≠
λ
j
{\displaystyle \lambda _{i}\neq \lambda _{j}\,}
para algún par
1
≤
i
,
j
≤
n
,
i
≠
j
{\displaystyle 1\leq i,j\leq n,\quad i\neq j}
. Entonces
v
i
⊥
v
j
{\displaystyle v_{i}\,\,\bot \,\,v_{j}}
. Es decir, autovectores asociados a autovalores distintos son ortogonales
λ
i
⟨
v
i
,
v
j
⟩
=
⟨
λ
i
v
i
,
v
j
⟩
=
⟨
A
v
i
,
v
j
⟩
=
v
H
A
H
v
j
=
v
H
A
v
j
=
⟨
v
i
,
A
v
j
⟩
=
⟨
v
i
,
λ
j
v
j
⟩
=
λ
j
⟨
v
i
,
v
j
⟩
{\displaystyle \lambda _{i}\langle v_{i},v_{j}\rangle =\langle \lambda _{i}v_{i},v_{j}\rangle =\langle Av_{i},v_{j}\rangle =v^{H}A^{H}v_{j}=v^{H}Av_{j}=\langle v_{i},Av_{j}\rangle =\langle v_{i},\lambda _{j}v_{j}\rangle =\lambda _{j}\langle v_{i},v_{j}\rangle \,}
De donde
λ
i
⟨
v
i
,
v
j
⟩
=
λ
j
⟨
v
i
,
v
j
⟩
⟺
(
λ
i
−
λ
j
)
⟨
v
i
,
v
j
⟩
=
0
⟺
v
i
⊥
v
j
{\displaystyle \lambda _{i}\langle v_{i},v_{j}\rangle =\lambda _{j}\langle v_{i},v_{j}\rangle \Longleftrightarrow (\lambda _{i}-\lambda _{j})\langle v_{i},v_{j}\rangle =0\Longleftrightarrow v_{i}\,\,\bot \,\,v_{j}}
1) Sea
A
=
[
1
2
2
1
]
{\displaystyle A={\begin{bmatrix}1&2\\2&1\\\end{bmatrix}}}
una matriz real simétrica (caso particular de Hermítica, con Imag(A) = 0). Entonces, se ve que
λ
1
=
3
{\displaystyle \lambda _{1}=3\,}
es autovalor de
A
{\displaystyle A\,}
asociado al autovector
v
1
=
(
1
1
)
{\displaystyle v_{1}={\binom {1}{1}}}
, es decir que el autoespacio asociado a este autovalor es
S
λ
1
=
gen
{
(
1
1
)
}
{\displaystyle S_{\lambda _{1}}=\operatorname {gen} {\Big \{}{\binom {1}{1}}{\Big \}}}
El otro autovalor es
λ
2
=
−
1
{\displaystyle \lambda _{2}=-1\,}
asociado al autovector
v
2
=
(
−
1
1
)
{\displaystyle v_{2}={\binom {-1}{1}}}
, es decir que el autoespacio asociado a este autovalor es
S
λ
2
=
gen
{
(
−
1
1
)
}
{\displaystyle S_{\lambda _{2}}=\operatorname {gen} {\Big \{}{\binom {-1}{1}}{\Big \}}}
Como se puede ver,
(
v
1
,
v
2
)
=
0
{\displaystyle (\,\,v_{1}\,\,,\,\,v_{2}\,\,)=0\,}
; es decir, son ortogonales. O sea
S
λ
1
⊕
S
λ
2
=
R
2
{\displaystyle S_{\lambda _{1}}\oplus S_{\lambda _{2}}=\mathbb {R} ^{2}}
La descomposición de la matriz es:
A
=
[
1
2
−
1
2
1
2
1
2
]
⋅
[
3
0
0
−
1
]
⋅
[
1
2
1
2
−
1
2
1
2
]
{\displaystyle A={\begin{bmatrix}{\frac {1}{\sqrt {2}}}&-{\frac {1}{\sqrt {2}}}\\{\frac {1}{\sqrt {2}}}&{\frac {1}{\sqrt {2}}}\\\end{bmatrix}}\cdot {\begin{bmatrix}3&0\\0&-1\\\end{bmatrix}}\cdot {\begin{bmatrix}{\frac {1}{\sqrt {2}}}&{\frac {1}{\sqrt {2}}}\\-{\frac {1}{\sqrt {2}}}&{\frac {1}{\sqrt {2}}}\\\end{bmatrix}}}
O si no:
A
=
[
−
1
2
1
2
1
2
1
2
]
⋅
[
−
1
0
0
3
]
⋅
[
−
1
2
1
2
1
2
1
2
]
{\displaystyle A={\begin{bmatrix}-{\frac {1}{\sqrt {2}}}&{\frac {1}{\sqrt {2}}}\\{\frac {1}{\sqrt {2}}}&{\frac {1}{\sqrt {2}}}\\\end{bmatrix}}\cdot {\begin{bmatrix}-1&0\\0&3\\\end{bmatrix}}\cdot {\begin{bmatrix}-{\frac {1}{\sqrt {2}}}&{\frac {1}{\sqrt {2}}}\\{\frac {1}{\sqrt {2}}}&{\frac {1}{\sqrt {2}}}\\\end{bmatrix}}}