Diferencia entre revisiones de «Entropía»

Contenido eliminado Contenido añadido
Ploncomi (discusión · contribs.)
Deshecha la edición 38086063 de 189.163.201.97 (disc.)
Línea 6:
Cuando se plantea la pregunta: ¿por qué ocurren los sucesos de la manera que ocurren, y no al revés? se busca una respuesta que indique cuál es el sentido de los sucesos en la naturaleza. Por ejemplo, si se ponen en contacto dos trozos de metal con distinta temperatura, se anticipa que finalmente el trozo caliente se enfriará, y el trozo frío se calentará, finalizando en [[equilibrio térmico]]. Sin embargo, el proceso inverso, el trozo caliente calentándose y el trozo frío enfriándose, es muy improbable a pesar de conservar la energía. El universo tiende a distribuir la energía uniformemente; es decir, a maximizar la entropía.
 
La función termodinámica bla bala bla a uifrfhfhgur2gbr 4tuhi3i2h crpj3 rc jfirogj4rgijr2pentropíaentropía es central para la [[Segunda ley de la termodinámica|segunda Ley de la Termodinámica]]. La entropía puede interpretarse como una medida de la distribución [[Fenómeno aleatorio|aleatoria]] de un sistema. Se dice que un sistema altamente distribuido al azar tiene alta entropía. Puesto que un sistema en una condición improbable tendrá una tendencia natural a reorganizarse a una condición más probable (similar a una distribución al azar), esta reorganización resultará en un aumento de la entropía. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio, alcanzándose la configuración de mayor probabilidad.
 
La entropía, coloquialmente, puede considerarse como el desorden de un sistema, es decir, cuán homogéneo está el sistema. Un ejemplo doméstico, sería el de lanzar un vaso de cristal al suelo, este tenderá a romperse y esparcirse mientras que jamás conseguiremos que lanzando trozos de cristal se forme un vaso.