Diferencia entre revisiones de «Entropía de von Neumann»
Contenido eliminado Contenido añadido
Creado al traducir la página «Von Neumann entropy» Etiquetas: sin categorizar Traducción de contenido |
Sin resumen de edición |
||
Línea 1:
En [[Física estadística|mecánica estadística cuántica]], la '''entropía de von Neumann''', que recibe su nombre de [[John von Neumann]], es la extensión del concepto de [[entropía]] de Gibbs clásica al campo de [[Mecánica cuántica|mecánica cuántica.]] Para un sistema cuántico descrito por una [[Estado mixto|matriz densidad]]
: <math> S = - \mathrm{tr}(\rho \ln \rho),</math>
donde
: <math> \rho = \sum_j \eta_j \left| j \right\rang \left\lang j \right| ~, </math>
entonces la entropía de von Neumann es simplemente<ref name="bengtsson301">{{Plantilla:Cita libro|last1 = Bengtsson|first1 = Ingemar|last2 = Zyczkowski|first2 = Karol|title = Geometry of Quantum States: An Introduction to Quantum Entanglement|page = 301|edition = 1st}}</ref>
: <math> S = -\sum_j \eta_j \ln \eta_j.</math>
En e''s''ta forma, <math>S(\rho)</math> se puede entender como la [[Entropía (información)|entropíade Shannon]] de la distribución de probabilidad
== Motivación ==
Línea 12:
La [[Estado mixto|matriz densidad]] fue introducida, con motivaciones diferentes, por von Neumann y por [[Lev Landáu|Lev Landáu.]] La motivación que inspiró a Landau era la imposibilidad de describir un subsistema de un sistema cuántico compuesto mediante un vector de estado.<ref>{{Plantilla:Cita publicación|last1 = Landau|first1 = L.|title = Das Daempfungsproblem in der Wellenmechanik|doi = 10.1007/BF01343064|journal = Zeitschrift für Physik|volume = 45|issue = 5–6|pages = 430–464|year = 1927|pmid = |pmc = }}</ref> Por otro lado, von Neumann introdujo la matriz densidad para desarrollar la mecánica estadística cuántica y la teoría de mediciones cuánticas.
El formalismo de la matriz densidad se desarrolló para extender las herramientas de mecánica estadística clásica al ámbito cuántico. En el marco clásicose calcula la [[Función de partición (mecánica estadística)|función de partición]] del sistema para evaluar todas cantidades termodinámicas posibles. Von Neumann introdujo la matriz densidad en el contexto de estados y operadores en un [[espacio de Hilbert]]. El conocimiento de la matriz densidad serviría para poder calcular todos los valores esperados de una manera conceptualmente similar, pero matemáticamente diferente. Sea un conjunto de funciones de onda <math>|
Después de este procedimiento, finalmente se llega al formalismo de la matriz densidad al buscar una forma en la que <math>p(
Los valores esperados de operadores que no sean diagonales involucran las fases de las amplitudes cuánticas. Si codificamos los números cuánticos
: <math> \left| \Psi \right\rangle \,=\, \sum_i a_i\, \left| \psi_i \right\rangle . </math>
El valor esperado de un operador
: <math> \left\langle B \right\rangle \,=\, \sum_{i,j} a_i^{*}a_j\, \left\langle i \right| B \left| j \right\rangle .</math>
El papel que antes tenían las cantidades <math> \left| a_i \right| ^2</math> ahora le corresponde a la matriz densidad
: <math> \left\langle j \right| \, \rho \, \left| i \right\rangle \,=\, a_j \, a_i^{*} .</math>
Por tanto,
: <math> \left\langle B \right\rangle \,=\, \mathrm{tr} (\rho \, B) ~.</math>
La invariancia de esta fórmula está garantizada por el álgebra lineal. Se ha establecido una formulación matemática en la que los valores esperados se obtienen como la traza del operador de densidad
<span class="cx-segment" data-segmentid="84"></span>Matemáticamente,
== Definición ==
Dada la matriz densidad
: <math>S(\rho) \,=\,-\mathrm{tr} (\rho \, {\rm \ln} \rho),</math>
que es una extensión apropiada de la [[Entropía|entropía de Gibbs]] (salvo un factor
: <math>S(\rho) \,=\, - \sum_j \eta_j \ln \eta_j ~.</math>
Como para un estado puro, la matriz densidad es [[Matriz idempotente|idempotente]],
: <math>\rho = {1\over 2} \begin{pmatrix}
1 & 1 \\
1 & 1 \end{pmatrix} </math>
aumenta hasta
: <math>\rho = {1\over 2} \begin{pmatrix}
1 & 0 \\
Línea 44 ⟶ 45:
== Propiedades ==
Algunas propiedades de la entropía de von Neumann:
* <math>S(
* <math>S(
* <math>S(
* <math>S(
* <math>S(
▲* S(ρ) es aditiva para sistemas independientes. Dadas dos matrices de densidad ρA , ρ<span class="texhtml " contenteditable="false"><sub>''B''</sub></span> que describen sistemas independientes ''A'' y ''B'', tenemos
:: <math>S(\rho_A \otimes \rho_B)=S(\rho_A)+S(\rho_B)</math>.▼
* S(ρ) es fuertemente subaditiva para cualequier conjunto de tres sistemas ''A'', B, y C:▼
:: <math>S(\rho_{ABC}) + S(\rho_{B}) \leq S(\rho_{AB}) + S(\rho_{BC}).</math> ▼
: Esto automáticamente significa que S(ρ) es subaditiva:▼
▲* <math>S(
=== Subaditividad ===
Si ρA, ρB son las matrices de densidad reducidas del estado ρAB, entonces
: <math> \left| S(\rho_A)\,-\,S(\rho_B) \right| \,\leq \, S(\rho_{AB}) \, \leq \, S(\rho_A)\,+\,S(\rho_B) ~. </math>
La desigualdad dela derecha recibe el nombre de subadividad, y las dos desigualdades juntas se conocen como la ''[[Desigualdad triangular|desigualdad triángular.]]'' Fueron probadas en 1970 por [[:en:Huzihiro_Araki|Huzihiro Araki]] y [[Elliott H. Lieb|Elliott H. Lieb.]]<ref>Huzihiro Araki and Elliott H. Lieb, ''Entropy Inequalities'', Communications in Mathematical Physics, vol 18, 160–170 (1970).</ref> Mientras en la teoría de Shannon la entropía de un sistema compuesto nunca puede ser menor que la entropía de cualquiera de sus partes, en la teoría cuántica este no es el caso, es decir, es posible que <math>S(
Intuitivamente, esto se puede entender así: En mecánica cuántica, la entropía del sistema conjunto puede ser menor que la suma de la entropía de sus componentes porque los componentes pueden estar [[Entrelazamiento cuántico|entrelazados.]] Por ejemplo, el [[estado de Bell]] de dos [[Qubit|qubits]],
: <math> \left| \psi \right\rangle = \left| \uparrow \downarrow \right\rangle + \left| \downarrow \uparrow \right\rangle ,</math>
es un estado puro con cero entropía, pero cada espín tiene la entropía máxima cuándo se considera individualmente su [[Entrelazamiento cuántico|matriz de densidad reducida.]]<ref>{{Plantilla:Cita publicación|last1 = Zurek|first1 = W. H.|title = Decoherence, einselection, and the quantum origins of the classical|doi = 10.1103/RevModPhys.75.715|journal = Reviews of Modern Physics|volume = 75|issue = 3|pages = 715|year = 2003|pmid = |pmc = |arxiv = quant-ph/0105127|bibcode = 2003RvMP...75..715Z}}</ref> La entropía en un espín puede ser "cancelada" por estar correlacionada con la entropía del otro. La desigualdad izquierda puede interpretarse aproximadamente como que la entropía sólo puede ser cancelada por una cantidad igual de entropía.
Si los sistema ''A'' y ''B'' tiene cantidades diferentes de entropía, la menor solo se puede compensar parcialmente con la mayor, y queda alguna entropía residual. Así mismo, la desigualdad de la derecha puede ser interpretada como que la entropía de un sistema compuesto es máxima cuando sus componentes no están correlacionados, y en este caso la entroía total es la suma de las entropías de los componentes.<span class="cx-segment" data-segmentid="202"></span>
== Usos ==
|