Principio de máxima entropía

En mecánica estadística, el principio de máxima entropía establece que la distribución de probabilidad menos sesgada que se le puede atribuir a un sistema estadístico es aquella en la que dadas unas ciertas condiciones fijas maximiza la entropía, , esto es, aquella en la que la desinformación es máxima. Esto viene a decir que en una situación de desconocimiento de información la distribución estadística menos sesgada será aquella en que menos información extrínseca al problema contenga. El anterior principio implica que dada la entropía como una función de la distribución de probabilidad y las j condiciones intrínsecas al problema, la distribución menos sesgada para los N microestados cumplirá que:

con las condiciones

Empleando los multiplicadores de Lagrange la función a maximizar es:

Aplicaciones editar

Este principio variacional permite obtener las distribuciones microcanónica, canónica y macrocanónica para un sistema. La función entropía utilizada es:

 

Colectividad microcanónica editar

La distribución de probabilidad correspondiente a la colectividad microcanónica es la perteneciente a un sistema aislado (no intercambia ni calor ni materia con el exterior). La única condición del problema será la normalización de la distribución de probabilidad para los   microestados:

 

De modo que por el principio de máximo:

 

Dado que ha de cumplirse para toda variación de la distribución:

 

Teniendo en cuenta que   es arbitrario y constante para todo  , se tiene que

 

Por normalización, se tiene:

 

Esto significa que en un sistema aislado, cada uno de los microestados son equiprobables.

Colectividad canónica editar

La colectividad canónica es la de un sistema en contacto con un foco a temperatura constante, o lo que es lo mismo, dado que la energía media es función de la temperatura, a energía media constante. Las condiciones serán por tanto, normalización de la función de distribución y energía media constante:

 
 

Por el principio de máximo:

 

De nuevo ha de cumplirse para toda variación de la distribución:

 

A continuación se determinan la constante y el segundo multiplicador de Lagrange. Siendo Z la función de partición canónica, por normalización se tiene que:

 

La entropía será:

 

Por definición de temperatura:

 

De modo que la probabilidad de cada microestado será:

 

El resultado muestra que los estados más probables son los de más baja energía de modo que la probabilidad de que el sistema se encuentre en un estado de alta energía es más bajo cuanto más alta sea la energía. Se puede observa también que en el cálculo de la entropía se obtuvo la siguiente expresión y recordando la definición de energía libre de Helmholtz:

 

De modo que un problema queda completamente determinado si se llega a conocer su función de partición.

Colectividad macrocanónica editar

La colectividad macrocanónica es aquella correspondiente a un sistema abierto en el que la energía media y el número medio de partículas es constante. Se puede realizar un cálculo análogo para un sistema que intercambie volumen, polarización, momento magnético, etc. Las condiciones serán por tanto normalización de la distribución y valores esperados de la energía y partículas constantes.

 
 
 

El método será el mismo que en los anteriores dos casos: por el método de los multiplicadores de Lagrange se maximiza el funcional entropía, dado que las variaciones en cada probabilidad son arbitrarias cada uno de los términos del sumatorio ha de anularse independientemente, se define la gran función de partición y por último se determinan las constantes por normalización y recurriendo a las definiciones termodinámicas.

 
 

Por normalización.

 

De modo que:

 

Por definición de temperatura y potencial químico:

 
 

La probabilidad de cada microestado será:

 

Véase también editar

Enlaces externos editar