Diferencia entre revisiones de «Entropía»

Contenido eliminado Contenido añadido
Luckas-bot (discusión · contribs.)
m r2.7.1) (robot Añadido: mn:Энтропи
Línea 8:
Cuando se plantea la pregunta: "¿Por qué ocurren los sucesos en la Naturaleza de una manera determinada y no de otra manera?", se busca una respuesta que indique cuál es el sentido de los sucesos. Por ejemplo, si se ponen en contacto dos trozos de metal con distinta temperatura, se anticipa que finalmente el trozo caliente se enfriará, y el trozo frío se calentará, finalizando en [[equilibrio térmico]]. El proceso inverso, el calentamiento del trozo caliente y el enfriamiento del trozo frío es muy improbable que se presente, a pesar de conservar la energía. El universo tiende a distribuir la energía uniformemente; es decir, a maximizar la entropía.
 
La función termodinámica entropía es central para la [[segunda ley de la termodinámica|segunda Ley de la Termodinámica]]. La entropía puede interpretarse como una medida de la distribución [[fenómeno aleatorio|aleatoria]] de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta entropía. Un sistema en una condición improbable tendrá una tendencia natural a reorganizarse a una condición más probable (similar a una distribución al azar), reorganización que dará como resultado un aumento de la entropía. La entropía alcanzará un máximominimo cuando el sistema se acerque al equilibrio, y entonces se alcanzará la configuración de mayor probabilidad. De modo que cuanto más ordenado internamente un sistema más bajo sera el valor de su entropía.
La entropía de un cristal puro y perfecto a 0 K es cero (la entropía "máxima" entendida como el máximo orden)
 
Coloquialmente, puede considerarse que la entropía es el desorden de un sistema, es decir, su grado de homogeneidad. Un ejemplo doméstico sería el de lanzar un vaso de cristal al suelo: tenderá a romperse y a esparcirse, mientras que jamás conseguiremos que, lanzando trozos de cristal, se construya un vaso por sí solo.