¿Qué es la entropía y la entropía,
¿qué tiene que ver con el orden y el desorden?
Sabemos qué es el orden.
Los conceptos de orden y desorden han sido parte de nuestra conciencia desde mucho antes de que el concepto de entropía surgió.
¿Qué orden es
Orden es tener todo en su lugar correcto, haciendo lo suyo propio.
El desorden es todo lo contrario. El orden es trenes que circulen por el tiempo, llevando a la gente a donde tienen que estar, cuando tienen que estar allí.
El orden es tropas informaron a sus puestos adecuados para ejercer sus funciones propias, de acuerdo a las órdenes de su comandante.
Hacer lo contrario provoca el desorden en las filas.
El orden es una máquina que tiene cada una de sus partes móviles que se desplazan como debe hacerlo en coordinación con todas las otras partes.
Una máquina con partes no comportarse como deberían es una máquina que está fuera de servicio. Orden no implica necesariamente el movimiento.
A veces "hacer lo correcto" significa no hacer nada, como cuando los artículos se clasifican y se almacenan. Los libros en una biblioteca están en orden cuando cada uno está descansando en su lugar apropiado, en el estante adecuado. Del mismo modo, las latas de sopa en la tienda de comestibles y los archivos en un archivador están en orden cuando cada uno está descansando en su lugar apropiado.
En otras palabras, el orden puede ser dinámica o estática.
Entonces, ¿qué es la entropía?
Probablemente la respuesta más común que se escucha es que la entropía es una especie de medida de desorden. Esto es engañoso.
La equiparación de la entropía con el desorden crea una confusión innecesaria en la evaluación de la entropía de los diferentes sistemas.
Considere las siguientes comparaciones.
¿Cuál tiene más entropía?
- pila de tarjetas en perfecto orden o una pila de tarjetas
en orden aleatorio?
- un reloj suizo con intrincados mecanismos internos o un reloj de sol?
- diez jarras de agua apiladas en una pirámide o la masa equivalente de agua en la forma de 10 bloques de hielo que vuelan al azar por el espacio?
- un ser vivo, ser humano o un cadáver desecado hasta convertir en polvo?
- el universo en el momento del Big Bang o el universo en su estado actual?
Si usted piensa en entropía como desorden, a continuación, las respuestas a estas preguntas pueden molestarle.
Entropía Según la termodinámica clásica
Vamos a echar un vistazo a donde la idea de la entropía viene en realidad. El concepto de entropía se originó alrededor de mediados del siglo 19, a partir del estudio de calor, la temperatura, trabajo y energía, conocida como la termodinámica. Esta fue la época de la locomotora de vapor.
El estudio de cómo el calor podría ser más eficientemente convertida en trabajo mecánico era de interés primordial. Se entiende que existe una relación entre calor y temperatura. En términos generales, cuanto más calor que se aplica a un objeto, más caliente se tiene.
También se entendió que el calor y el trabajo representado diferentes formas de energía y que bajo las circunstancias adecuadas, podría convertir a uno en el otro. Además, se observó que el tiempo de calor sólo espontáneamente fluir fuera de un cuerpo era cuando estaba en contacto con otro, más frío, cuerpo. Es decir, el calor siempre fluye de caliente a frío. El reto consistía en encontrar la manera más eficiente para aprovechar el calor que sale de un foco caliente a un foco frío y lo utilizan para hacer el trabajo mecánico.
Una de las dificultades era saber cuánta energía térmica almacenada en el depósito caliente. ¿Cuál fue el calor máximo que teóricamente podría retirarse del depósito? No se podía medir el contenido de calor directamente.
¿Qué se puede medir la temperatura era de la presa. Si supieras la relación entre la temperatura y el contenido de calor de ese depósito, se puede utilizar la temperatura para calcular el contenido de calor.
Además, si se utiliza una escala de temperatura que disminuye a cero cuando el contenido de calor se redujo a cero, entonces la relación entre la temperatura y el contenido de calor puede ser representada como una relación simple. Esto se convirtió en la definición operativa de una propiedad nueva concepción de los sistemas, una propiedad que llegó a ser conocida como entropía . (El término fue acuñado en 1865 por Rudolf Clausius quien pensó en ella como la representación de una especie de "trabajo interno de transformación".) En pocas palabras, la entropía es la relación entre la temperatura de un cuerpo y su contenido de calor (más precisamente, su cinética energía térmica). Entropía, S , es el contenido de calor, Q , dividida por la temperatura del cuerpo, T . S = Q / T Dicho de otra manera, el calor,
Q , almacenados en un objeto a la temperatura, T , es su entropía, S , multiplicado por su temperatura, T . Q = T x S
Eso es. La definición de la entropía, como se concibió originalmente en termodinámica clásica, no tenía nada que ver con el orden o el desorden . Tuvo mucho que ver con la cantidad de energía calorífica se almacena o atrapado en un cuerpo a una temperatura dada. Piénsalo de esta manera.
Si ha extraído toda la energía posible del calor de un objeto por enfriarlo lo más lejos posible (hasta el cero absoluto), y luego llevando la cuenta del calor que tuvo que poner de nuevo en él para traerlo de vuelta a un estado determinado, que cantidad de calor suministrada dividida por la temperatura final en kelvin sería la entropía de dicho objeto en ese estado. La entropía del sistema es la capacidad calorífica media del sistema de promediado sobre su temperatura absoluta .
El significado de entropía en termodinámica clásica
La importancia de la entropía en el estudio de las máquinas térmicas y reacciones químicas es que, para una temperatura dada, un sistema puede mantener sólo una cierta cantidad de energía de calor - no más y no menos - en función de la entropía del sistema. Si la entropía de los cambios del sistema, parte de la energía se libera o absorbe de una forma u otra (como una esponja que de repente cambia la cantidad de líquido que puede contener). Para los motores de calor que significaba que si quería convertir calor en trabajo mecánico, lo necesario para asegurarse de que más calor fluyó fuera del depósito caliente que podría "encajar" en el depósito frío.
Tú hiciste esto por no dejar que el calor depósito frío como calor fluyó en y por no dejar que el foco caliente se enfríe en forma de calor fluyó. Mientras que mantiene una diferencia de temperatura, más calor fluiría fuera del cuerpo caliente que podría ser absorbido por, "encajar en", el cuerpo frío.
El flujo de calor excedente se podría utilizar para hacer un trabajo mecánico. En química entropía significa que el cálculo de la variación de la energía química, la energía representada por la realización y ruptura de enlaces químicos, no fue suficiente para predecir la energía útil cuánto se libera durante un reacción. La cantidad de energía "liberado" por una reacción era la energía generada por la reacción química menos cualquier energía adicional atrapado por los cambios en la entropía del sistema. La energía adicional atrapado fue sólo el cambio en la entropía, delta S , los tiempos de la temperatura del sistema, T . En 1876, J. Willard Gibbs llamó a esta energía útil lanzado como "energía libre" y siempre que la fórmula para calcularlo. La energía libre, G delta , fue el cambio en energía química, H delta , menos la energía atrapada, térmica, T veces delta S . delta delta G = H - (T x delta S)
Entropía Según Termodinámica Estadística
Entonces, ¿dónde entonces surgió la asociación entre la entropía y el desorden viene? Con el tiempo, más se aprendió acerca de la función de las moléculas en la determinación de las variables termodinámicas clásicas tales como la presión, la temperatura, y el calor. Presión, que resultó, era sólo la fuerza total ejercida por las moléculas individuales, chocando con ellos y las paredes del recipiente, como media de la superficie del recipiente.
La temperatura se determina que la energía cinética media de las diferentes maneras en que las moléculas puedan mover, caer o vibrar.
Esto más detallada, punto de vista molecular, la termodinámica y las matemáticas asociadas a ella se conocía como la termodinámica estadística .
La persona más responsable de la elaboración de la relación matemática entre la entropía y el movimiento molecular fue Ludwig Boltzmann. De la descripción molecular del contenido de calor y temperatura, Boltzmann demostró que la entropía debe representar el número total de maneras diferentes las moléculas puedan mover, caer o vibrar. La idea era que el calor era sólo la energía cinética en una escala que no puede ser observada directamente, sino que se manifestó en el agregado como las propiedades termodinámicas que se puede observar. El calor fluye desde un cuerpo caliente a un cuerpo frío como energía cinética se transfiere a través de colisiones moleculares que ocurren en el límite entre los dos cuerpos y difundirse por todo el cuerpo como moléculas chocaron entre sí dentro del cuerpo.
En cada colisión, la energía cinética se intercambió. En promedio, las moléculas con más energía cinética perdida de energía cinética que chocaron y moléculas con menos cinética adquirida energía cinética como del choque, hasta que, en promedio, la energía cinética se distribuyó de manera óptima entre todas las moléculas y sus distintos modos de movimiento. La neto resultado fue que el más formas de un sistema podría moverse internamente, la energía cinética molecular más el sistema podría contener a una temperatura dada. Esto era debido a una temperatura era sólo la energía cinética media por el modo de movimiento. Se podría pensar en estos modos de movimientos como "bolsas" que pueden contener la energía cinética. (También se puede pensar en ellos en términos más técnicos como osciladores moleculares o modos de oscilación térmica.) Si cada bolsillo, en promedio, podría tener la misma cantidad de energía cinética, luego los bolsillos más
un sistema tenía, la energía cinética total de más el sistema contenía.
Cuanto mayor sea el número de bolsas de la energía cinética de un sistema tenía, mayor es su entropía.
Así, en el nivel molecular, la entropía fue sólo una medida del número total
de bolsillos moleculares energía cinética contenida en el sistema.
La entropía como desorden
Fue Boltzmann quien abogó por la idea de que la entropía está relacionada con el trastorno. En la mente de Boltzmann, más formas en que un sistema podría moverse internamente, más desordenado que el sistema era.
Un sistema en el "orden perfecto", fue uno en el que todas las moléculas eran encerrados en orden perfecto, sin ninguna libertad de movimiento alguno.
Un sistema dinámico en equilibrio perfecto representado, de acuerdo con la termodinámica estadística, un sistema en el "desorden perfecto".
La idea de la entropía como una medida del desorden fue abrazado y perpetuada por sus colegas en el campo de la termodinámica estadística.
Problemas con la entropía como desorden
Pero, ¿es realmente la mejor trastorno palabra usar para definir la entropía? No lo creo. Hay varios problemas con el uso de trastorno para definir la entropía. El primer problema tiene que ver con los sistemas que tienen múltiples niveles de organización. Un sistema puede ser más o menos "ordenada" de una sola planta y en absoluto en otro.
Tomemos el ejemplo de los cubos de hielo volando en el espacio. En el nivel de los cubitos de hielo, el sistema es desordenada, pero en el nivel molecular,
las moléculas de hielo se bloquean en su lugar, de forma ordenada en orden. Hay dos maneras de tratar con esta ambigüedad. Una es la de limitar la aplicación de la expresión a sólo un nivel claramente especificado a la vez.
Al hacer esto, tenemos que ser cuidadosos en cuanto a qué significado le atribuimos a la entropía en los niveles superiores. Estos "superiores" entropías no se puede tomar como la entropía total del sistema.
La otra solución sería reducir todo el sistema a su nivel más fundamental.
El problema con este enfoque es saber cuál es el nivel más fundamental de la organización. En el momento de Bolzmann y Clausius, moléculas y los átomos se considera que el nivel más fundamental de organización. Ahora, por supuesto, sabemos que los átomos tienen su propia estructura interna, e incluso los protones y los neutrones tienen estructura interna. Por lo tanto, se pone muy complicado aplicar la definición estadística de la entropía para cualquier nivel de la organización que no sea el nivel molecular original para la que fue diseñada. El segundo problema con el trastorno como una definición de la entropía, en mi mente, incluso en el nivel molecular, Se supone que el trastorno de las cosas no están donde deben estar. Este no es el caso. Movimiento en el nivel molecular se siguen rigiendo por la mecánica newtoniana. Si este no fuera el caso, las ecuaciones que correlacionan el movimiento molecular con las variables observables de la termodinámica clásica, como la temperatura y la presión, no podría haber sido derivado como estaban. Las moléculas son, de hecho, exactamente donde deben estar. ¿Dónde más podría ser? Ellos no tienen la libertad de hacer cualquier giro o salto aleatorio entre colisiones. Las reglas son claras - siga recto entre colisiones y luego obedecer estrictamente las leyes de conservación de la energía y la conservación del momento durante las colisiones.
Incluso si nos limitamos a la orden observable, un sistema con alta entropía también puede tener un alto grado de orden. Orden no depende de la cantidad de movimiento que hay en un sistema o la complejidad de ese movimiento, sino en lo que significado el movimiento del sistema, o no movimiento, tiene en el ojo del observador. Si pudiéramos observar la secuencia de movimientos individuales de cada molécula en un sistema y si una secuencia particular tuvo un significado especial, por ejemplo, porque conducen a una especie de réplica o la evolución, entonces podríamos percibir que la combinación de movimientos que tiene más fin que alguna otra combinación.
Entropía no debe y no depende de nuestra percepción de orden en el sistema. La cantidad de calor que un sistema válido para una temperatura dada no cambia dependiendo de nuestra percepción de la orden.
Entropy, como la presión y la temperatura es una propiedad termodinámica independiente del sistema que no depende de nuestra observación.
La entropía como la diversidad
Una palabra mejor que captura la esencia de la entropía en el nivel molecular es la diversidad. Entropy representa la diversidad de movimiento interno de un sistema. Cuanto mayor es la diversidad de movimiento en el nivel molecular, mayor es la entropía del sistema. Orden, por otro lado, puede ser simple o complejo. Un sistema vivo es complejo. Un sistema vivo tiene un alto grado de orden y un alto grado de entropía. Un mapache tiene más entropía que una roca. Un ser vivo, ser humano, más que un cadáver hasta seco.
Con esta comprensión más clara de la entropía, vamos a echar un vistazo a esas preguntas inquietantes que plantea la entropía antes.
Las pilas de tarjetas? Los dos tienen la misma entropía.
En el nivel molecular, las moléculas no se comportan de forma diferente en una pila que en el otro. Incluso en el nivel de la tarjeta, no hay ninguna diferencia. Ninguna de las tarjetas se están moviendo. No hay energía cinética presente en el nivel de la tarjeta, ya sea en la pila.
No hay ninguna diferencia entre las pilas excepto nuestro
sentido subjetivo de orden.
En cuanto a la vigilancia y el reloj de sol, depende. Si ambos están hechos de metales similares y son a la misma temperatura y presión, entonces en un nivel molecular que tendrían sobre la misma entropía. Las moléculas en el reloj tendría aproximadamente la misma diversidad de movimiento en las partes metálicas sólidas como las moléculas en el metal del reloj de sol. Onza por onza, el contenido de calor sería aproximadamente el mismo para ambos. En el nivel más alto del sistema, se podría decir que el reloj tiene más entropía que el reloj de sol, ya que tiene una mayor diversidad de movimiento interno. El reloj tiene energía cinética más interno que el reloj de sol.
¿Qué significado le podría dar a este "nivel más alto" entropía
El agua de las tinajas apiladas tiene más entropía que los cubitos de hielo que vuelan porque las moléculas de agua líquida tiene más modos de movimiento que las moléculas de hielo. Una vez más, el calor atrapado en el agua líquida por grado es mayor que el calor atrapado en el hielo por grado. Ciertamente, los cubos de hielo tiene más energía cinética observable en la escala macro y así se podría asignar un tipo de macro entropía, pero ¿qué significa eso realmente? También puede calcular un tipo de macro temperatura a lo largo de las mismas líneas, ya que la energía cinética media de los cubitos de hielo que vuelan, pero ¿por qué molestarse?
The Big Picture
Esto nos lleva al universo como un todo. Esto es muy problemático.
En el momento del Big Bang, no hubo moléculas. ¿Es realmente apropiado para hablar de la entropía, la temperatura y el calor en este nivel? ¿El plasma indiferenciado tienen energía cinética? ¿Qué pasa con el universo hoy en día? ¿Cuál es la temperatura del universo? ¿Cuál es la temperatura de cualquier sistema que no es homogénea y no en equilibrio térmico? Estas no son cuestiones triviales. La temperatura y la entropía de un sistema sólo está bien definido para los sistemas que son homogéneas y en equilibrio térmico.
La manera más fácil de contestar la entropía del universo es cuestión de aceptar la segunda ley de la termodinámica y extrapolar hacia atrás.
La segunda ley dice que la entropía siempre aumenta en el universo, por lo que la entropía del universo en el momento del Big Bang debió ser mucho menor que la entropía del universo ahora.
Esto no quiere decir que había más estructura u orden en aquel entonces .
Lo que significa que había menos diversidad y menos espacio para moverse. La evolución del universo se ha caracterizado por una transformación en curso de un simple, restringida, muy condensada, estado homogéneo a una cada vez más compleja, muy dispersos, dinámica, diversidad multipotentes, granular. En otras palabras, el universo no está terminando, como una máquina sin alma gigante lentamente perdiendo fuerza.
Por el contrario, está despertando.