Entropía en termodinámica clásica

La versión actual de la página aún no ha sido revisada por colaboradores experimentados y puede diferir significativamente de la versión revisada el 26 de marzo de 2022; las comprobaciones requieren 4 ediciones .
entropía
Dimensión
Unidades
SI J / K
SGA ergio / K

La entropía termodinámica , a menudo denominada simplemente entropía , es una cantidad física utilizada para describir un sistema termodinámico , una de las cantidades termodinámicas básicas ; la entropía y la temperatura son cantidades termodinámicas conjugadas necesarias para describir las propiedades térmicas de un sistema y los procesos térmicos en él. La entropía es una función de estado y es ampliamente utilizada en termodinámica , tanto técnica (análisis del funcionamiento de motores térmicos y plantas de refrigeración ) como química (cálculo de equilibrios de reacciones químicas ).

El enunciado sobre la existencia de la entropía y la enumeración de sus propiedades constituyen el contenido de la segunda y tercera leyes de la termodinámica . La importancia de esta cantidad para la física se debe a que, junto con la temperatura, se utiliza para describir fenómenos térmicos y propiedades térmicas de objetos macroscópicos. Las ideas cualitativas sobre el estado térmico del sistema están asociadas a sensaciones térmicas expresadas por los conceptos de " más cálido ", " más frío ", " calentamiento ", " enfriamiento ", "grado de calentamiento". Las propiedades térmicas incluyen propiedades que caracterizan el comportamiento de una sustancia cuando se calienta o se enfría: coeficientes térmicos , capacidad calorífica y otros coeficientes calóricos , constante de Curie , indicadores de resistencia al calor , límites de resistencia al fuego , etc.; ejemplos de fenómenos térmicos son expansión térmica , piroelectricidad , efecto electrocalórico , conductividad térmica , cambios en el estado de agregación  : cristalización y congelación, fusión y fusión , evaporación , ebullición , sublimación ( sublimación ), condensación y otros procesos.

Antecedentes históricos

El concepto de entropía, su designación y nombre fueron introducidos por R. Clausius (1865). La abstracción de este concepto -una de las piedras angulares de la termodinámica- y la variedad de enfoques para justificar la existencia de la entropía como una cantidad termodinámica llevaron al surgimiento de la axiomática de la termodinámica .

Termodinámica definición de entropía

En termodinámica, la entropía se introduce comprobando su existencia, enumerando sus propiedades y construyendo una escala de medición basada en la primera , segunda y tercera ley de la termodinámica.

En los formalismos termodinámicos de Clausius [1] y Carathéodory [2] , la entropía se introduce simultáneamente con la temperatura termodinámica absoluta . El aparato matemático de la termodinámica de Gibbs [3] se basa en el uso de la entropía como variable termodinámica independiente, mientras que la temperatura, un candidato natural para este papel, se introduce como una función de la energía interna y la entropía. Finalmente, en la termodinámica racional , la entropía se expresa en términos de energía interna y temperatura, que se consideran como las principales variables indefinidas de la teoría.

Entropía de un sistema simple

La primera ley (ley) de la termodinámica establece una conexión entre la energía interna, el trabajo y el calor : una de estas cantidades físicas se da con la ayuda de las otras dos, que, siendo los objetos iniciales de la teoría, no pueden determinarse dentro del marco de esta teoría en sí misma simplemente porque no hay conceptos más generales, bajo los cuales podrían resumirse [4] . La termodinámica toma prestados los conceptos de energía y trabajo de otras ramas de la física [5] [6] , mientras que la definición de la cantidad de calor, por el contrario, se da única y precisamente en la termodinámica. Según Clausius, el calor se determina a través de la energía interna y el trabajo [7] [8] . Cuando se utiliza la regla de los signos termodinámicos [9] , la expresión matemática de la primera ley de la termodinámica en la formulación de Clausius es [10] :

(Definición de calor según Clausius)

La primera ley en esta formulación introduce el calor como una característica física del proceso, cuyo comportamiento está determinado por la ley de conservación de la energía, pero no lo define como un objeto matemático. Es más fácil detallar la definición de calor para un proceso de equilibrio cuando el trabajo, y por lo tanto el calor, pueden expresarse en términos de variables de estado. Para un proceso de equilibrio infinitamente pequeño [11] en un sistema simple [12] , el único tipo posible de trabajo es el trabajo de expansión/compresión :

(Trabajo de expansión/contracción para un proceso de equilibrio en un sistema simple)

donde  es presión,  es volumen; el símbolo significa que la cantidad correspondiente se refiere a un proceso infinitesimal. Así, para la primera ley de la termodinámica en la formulación de Clausius, obtenemos [13] [14] :

(Primera ley para un proceso de equilibrio en un sistema simple)

donde  es el calor elemental (infinitamente pequeño) del proceso.

Esta expresión, que define el calor elemental como un objeto matemático, es una forma diferencial lineal ( forma de Pfaff ) para dos variables independientes. Para una forma Pfaffiana dada , la condición de integrabilidad de Euler no se cumple, es decir , hay un funcional [15] , y no un diferencial total de una función inexistente [14] . Sin embargo, se sabe por la teoría de las formas diferenciales que si se cumple la condición de Frobenius [16] , entonces la forma de Pfaffian tiene un factor de integración/divisor , que convierte esta forma en una diferencial total y es una función de la misma forma independiente. variables que entran en la forma de Pfaff [17] . Las formas de Pfaffian que tienen un factor de integración/divisor se llaman holonómicas ; la forma de Pfaffian de dos variables siempre es holonómica (teorema de Cauchy) [18] [19] . Por lo tanto, para sistemas de equilibrio simple, existe una función de estado cuyo diferencial total es igual a

(Definición de la entropía de un sistema de equilibrio simple)

dónde

hay un divisor integrador para la forma de Pfaff . Clausius llamó a la función de estado entropía (del griego ἐντροπία - cambio, transformación, transformación). La segunda ley de la termodinámica establece que la entropía existe para cualquier sistema en equilibrio, no solo para los simples, y que el factor de integración es la temperatura termodinámica absoluta [20] [21] [22] [19] . La termodinámica de no equilibrio extiende el concepto de entropía local y temperatura local a cualquier sistema termodinámico.

La integración de la ecuación de la entropía conduce a la aparición de una constante arbitraria en la expresión de la función, dependiendo de la elección del punto de referencia inicial de la entropía. La arbitrariedad en la elección del estado inicial de entropía elimina la tercera ley de la termodinámica .

Entropía de un sistema cerrado en la termodinámica de Clausius-Carathéodory

El enfoque tradicional para la construcción de la termodinámica (axiomática de Clausius-Carathéodory) se basa en utilizar el concepto de energía interna como concepto básico de la teoría, tomando prestadas fórmulas para calcular el trabajo termodinámico de la mecánica y la electrodinámica de los continuos , y la primera ley de la termodinámica. en la formulación de Clausius .

Además del trabajo de expansión/compresión, el sistema puede realizar simultáneamente otros tipos de trabajo, por ejemplo, el trabajo de cambio de área de la interfaz de fase , el trabajo de desplazamiento en el campo gravitatorio , el trabajo de polarización dieléctrica en un campo eléctrico, etc. Todos estos tipos de trabajo están unidos por la identidad estructural formal de las fórmulas de cálculo de cada uno con un amigo y con una expresión para la operación de expansión/compresión [23] [24] [25] :

donde  es el trabajo elemental del tipo th,  es la coordenada generalizada conjugada con la fuerza generalizada Cada coordenada generalizada tiene su propia fuerza generalizada; las variables físicas correspondientes a coordenadas y fuerzas generalizadas se especifican en relación con el problema que se está resolviendo [26] [27] .

Si un sistema homogéneo realiza simultáneamente varios tipos diferentes de trabajo, entonces se suman y el trabajo total del sistema es [23] [28] [29]

(Trabajo total para un proceso de equilibrio en un sistema homogéneo)

y para la primera ley de la termodinámica obtenemos la relación [30] [31] :

(Primera ley para un proceso de equilibrio en un sistema homogéneo)

que, como en el caso de un sistema simple, es la forma de Pfaffian. Una consecuencia de la segunda ley de la termodinámica en cualquiera de sus formulaciones es la conclusión de que la forma de Pfaffian para cualquier número de variables es siempre holonómica [21] y, por lo tanto, para cualquier sistema termodinámico cerrado existe una entropía

(Entropía de un sistema cerrado homogéneo)

y temperatura termodinámica absoluta

Una expresión es una abreviatura para enumerar variables de cierto tipo, en este caso, coordenadas generalizadas.

Entropía de un sistema abierto

Asumiendo que el calor y el trabajo son las dos únicas formas posibles de transferencia de energía [32] [33] [34] , y el cambio de energía asociado con la transferencia de materia en un sistema abierto es una parte integral del trabajo total, llamado químico trabajo (el trabajo de redistribución de masas de sustancias [35] ), en el caso de un sistema abierto homogéneo, la forma diferencial para un sistema cerrado debe complementarse con un término que tenga en cuenta el trabajo químico elemental [36] [37 ] [38] [39] [40] :

(Trabajo químico para un proceso de equilibrio en un sistema homogéneo abierto)

donde  es la masa del componente th [41] ,  es el potencial químico de este componente.

La forma de Pfaffian para un sistema homogéneo abierto es [29]

(Primera ley para un proceso de equilibrio en un sistema homogéneo abierto)

Más razonamientos sobre la existencia de la entropía

y temperatura termodinámica absoluta

para un sistema abierto no son diferentes de las consideraciones realizadas al considerar un sistema cerrado, por lo que las siguientes son las razones por las que los sistemas abiertos requieren una consideración por separado.

La primera de estas razones es que el uso del trabajo químico como parte del trabajo general en el aparato conceptual de la termodinámica hace que las ideas sobre el aislamiento adiabático no sean equivalentes al imponer una prohibición sobre el intercambio de materia (es decir, cualquier sistema aislado adiabáticamente es un sistema cerrado o, en otras palabras, la masa es una cantidad impedida adiabáticamente) [42] [43] [44] [45] , y el aislamiento adiabático que permite el intercambio de energía solo en forma de [46] [47] . Es posible restablecer la equivalencia de las formulaciones anteriores sobre el aislamiento adiabático si modificamos la definición de calor según Clausius agregando al calor y al trabajo la tercera forma de transferencia de energía : energía de transferencia de masa [48] [49] :

(Definición modificada de calor para un sistema abierto)

donde viene dada por la expresión para el trabajo químico .

La segunda razón para una consideración separada de la cuestión de la entropía de los sistemas abiertos es la siguiente. Con la excepción del potencial químico, todas las variables incluidas en la forma de Pfaffian para un sistema abierto en el marco del formalismo termodinámico son cantidades indeterminadas tomadas de otras ramas de la física, lo que implica que no necesariamente se describen en la propia termodinámica. El potencial químico se introduce en la termodinámica y debe referirse a los conceptos básicos indefinidos, para los cuales solo es posible una descripción explicativa, o se requiere una definición exacta del potencial químico de la termodinámica. Como cantidad indeterminada, el potencial químico se puede introducir simultáneamente con la temperatura y la entropía (además, P. A. Zhilin [50] considera que este enfoque es el único correcto [51] ), pero tradicionalmente, se prefiere introducir el potencial químico en consideración como una variable secundaria basada en una representación preformada sobre la entropía de un sistema abierto. Para ello, siguiendo a W. Gibbs [52] [45] , sin demostración, aceptamos el enunciado sobre la existencia de la entropía de un sistema abierto [53] [54] [55]

(Entropía de Gibbs de un sistema homogéneo abierto; ecuación fundamental de Gibbs en expresión de entropía )

en función del estado, con las masas de los componentes sin cambios, coincidiendo con la entropía de un sistema cerrado homogéneo . De la ecuación fundamental de Gibbs en forma diferencial [55]

(Forma diferencial de la ecuación fundamental de Gibbs para la entropía)

encontramos los valores de las derivadas parciales de la entropía:

El potencial químico del componente th se expresa en términos de la derivada parcial de la entropía con respecto a la masa de este componente [56] :

(Definición del potencial químico de un componente)

Entropía en la termodinámica de Gibbs

La construcción de una teoría basada en la postulación de la existencia de la entropía como función de estado, cuyas variables independientes incluyen las masas de los componentes, es el principal contenido de la termodinámica de Gibbs [57] , y la forma en que se extiende la termodinámica de Clausius a sistemas abiertos nos permite hablar de la axiomática de Gibbs [52] [ 45] . En la termodinámica de Gibbs se introducen los conceptos de componente del sistema, fase y sistema heterogéneo multifásico , postulan la existencia de energía interna y entropía como variables de estado aditivas , postulan la relación de estas cantidades con variables de estado independientes en forma de fundamentales Las ecuaciones de Gibbs en expresiones de energía y entropía, postulan la aditividad de los constituyentes de estas ecuaciones fundamentales de variables independientes, postulan que existe una temperatura termodinámica, introducen un potencial químico y postulan una condición general de equilibrio termodinámico en el sistema [58] , que se considera a continuación entre las propiedades de la entropía.

Tenga en cuenta que la definición significativa de temperatura según Gibbs [59] [60] [61]

(Temperatura termodinámica según Gibbs)

puede, por otro lado, considerarse como una definición descriptiva de la entropía. Es decir, la entropía en la termodinámica de Gibbs es una variable de estado tan extensiva que la derivada de la energía interna con respecto a la entropía es una variable de estado intensiva que tiene todas las propiedades requeridas para la temperatura termodinámica.

Entropía en termodinámica racional

La termodinámica racional no divide la termodinámica en equilibrio y no equilibrio; ambas disciplinas se consideran como una sola parte de la física continua [62] [63] [64] [65] . La termodinámica racional del equilibrio es el resultado de aplicar la teoría general a sistemas en equilibrio [66] . Los conceptos indefinidos iniciales de la teoría son la energía , el volumen y el número de moles del componente . Por analogía con la presión

en el equilibrio mecánico que tiene el mismo valor en todas las partes del sistema, se introduce el potencial químico

como una cantidad intensiva que tiene el mismo valor en todas las partes del sistema en equilibrio químico [67] . La temperatura termodinámica absoluta se introduce mediante el siguiente axioma: existe una cantidad termodinámica intensa, temperatura

que caracteriza el grado de calentamiento de los cuerpos y tiene las siguientes propiedades [68] :

 ;  ;

La entropía en termodinámica racional se define como una cantidad aditiva igual a [69]

Propiedades de entropía que siguen a esta definición [69] :

 ;  ;


 ;

donde  es la capacidad calorífica del sistema a volumen constante. De la definición de entropía y sus propiedades se deduce que, bajo la condición de constancia de la energía, la entropía de un sistema es máxima cuando todas las partes del sistema tienen la misma temperatura - el principio variacional de máxima entropía en un estado de equilibrio [69] . Así, la entropía es una función monotónica convexa de la energía, que alcanza un máximo en un estado de equilibrio termodinámico; el estado del sistema, tomado como el comienzo de la escala de referencia energética, es simultáneamente el estado de los puntos de referencia iniciales de temperatura y entropía.

Propiedades de entropía

La lista de propiedades de entropía se da en relación con la termodinámica de Gibbs; Los ejemplos dados para ilustrar las propiedades enumeradas de la entropía se refieren, por regla general, a sistemas térmicos y de deformación homogéneos abiertos para los cuales la ecuación fundamental de Gibbs en la expresión de la entropía es válida [70] [71] :

(Ecuación fundamental de Gibbs en expresión de entropía para un sistema abierto de deformación térmica)
Como consecuencia de la aditividad, obtenemos que la entropía en la ecuación fundamental en la expresión de entropía es una función homogénea de primer orden de todas las variables independientes [81] [73] , es decir, para
y la identidad de Euler (teorema) es válida para ello [82] :
(Definición termodinámica de temperatura)
De acuerdo con el teorema del recíproco [85] , esta definición coincide con la definición de temperatura de equilibrio de Gibbs [59] [60] [61] :
(Temperatura termodinámica según Gibbs)
El cero y el infinito están permitidos como límites [88] .
(Tercera ley de la termodinámica; teorema térmico de Nernst )
Según el postulado de Tisza , la energía interna es limitada y este límite corresponde a la temperatura del cero absoluto [88] [91] . Por lo tanto, el estado del sistema a temperatura cero absoluta, cuando todas las cantidades termodinámicas que caracterizan el estado de equilibrio dejan de depender de la temperatura [92] , se adapta mejor como estado estándar del punto de referencia para las principales cantidades termodinámicas.
(Condición de equilibrio para un sistema aislado)
Dado que estamos hablando de un sistema aislado, sobre el cual está prohibida la influencia externa, el concepto de variación en este caso significa un cambio virtual en la entropía [95] . El signo igual en esta expresión se refiere a un equilibrio indiferente . La condición de equilibrio de Gibbs se deriva del postulado de Clausius sobre la entropía no decreciente de un sistema adiabáticamente aislado, que forma parte de la segunda ley de la termodinámica [94]

La entropía como función característica

Entropía y calor de un proceso cuasi-estático (equilibrio)

A partir de la expresión de la primera ley en un sistema homogéneo abierto y de la forma diferencial de la ecuación fundamental de Gibbs para la entropía , obtenemos una expresión para el calor elemental de un proceso de equilibrio (cuasiestático) [96] [97] :

(Calor de un proceso de equilibrio elemental)

(para un sistema de equilibrio simple, esta expresión se deriva directamente de la definición de entropía ).

Esta relación , que conecta la termodinámica de Clausius con la termodinámica de Gibbs, es de interés para los usuarios que necesitan presentar material de la antigua literatura educativa y científica usando una terminología que o no usa el concepto de "calor" en absoluto, o lo usa como un término secundario. concepto definido a través de la entropía y la temperatura absoluta.

La entropía como característica de un proceso isotérmico

Para un proceso isotérmico de equilibrio con trabajo cero , la integración de la expresión del calor del proceso de equilibrio da la siguiente expresión para el cambio de energía interna:

es decir, en cualquier proceso isotérmico de equilibrio con trabajo cero, se gasta energía para aumentar la entropía del sistema y se libera cuando la entropía disminuye. Transformemos esta ecuación a la forma

y llame a la relación energía interna reducida . Esto implica la siguiente interpretación -una de varias existentes- del significado físico de la entropía: la entropía es la energía interna reducida de un sistema isotérmico.

Considere, como ejemplo, las transiciones de fase en el agua a presión atmosférica (ver figura). Cuando el hielo se derrite, la energía suministrada al sistema se gasta en aumentar la entropía del sistema debido a un cambio en la estructura del H 2 O, mientras que la temperatura del sistema hielo + agua se mantiene cercana a 0 °C (273 K) hasta que el hielo desaparezca por completo. Cuando el agua se congela, la situación se invierte: la energía se libera al medio ambiente a 0 °C. El calentamiento del agua formada durante el derretimiento del hielo provoca un aumento de la temperatura del agua hasta que hierve a 100 °C (373 K). Hervir agua a presión constante es un proceso isotérmico: la energía de entrada se gasta en la evaporación del agua y el aumento de la entropía del sistema agua + vapor de agua, mientras que la temperatura se mantiene cercana a los 100 °C hasta que el agua líquida desaparece por completo.

Definición estadística de entropía: principio de Boltzmann

En 1877, Ludwig Boltzmann estableció la relación entre la entropía y la probabilidad de un estado dado. Posteriormente, esta relación fue presentada en forma de fórmula por Max Planck :

donde la constante 1.38⋅10 −23 J/K es llamada constante de Boltzmann por Planck , y  es el peso estadístico del estado, es el número de posibles microestados (métodos) por los cuales este estado macroscópico puede estar compuesto. Este postulado, llamado principio de Boltzmann por Albert Einstein , dio origen a la mecánica estadística , que describe sistemas termodinámicos utilizando el comportamiento estadístico de sus componentes constituyentes. El principio de Boltzmann conecta las propiedades microscópicas de un sistema ( ) con una de sus propiedades termodinámicas ( ).

Considere, por ejemplo, un gas ideal en un recipiente. El microestado se define como las posiciones e impulsos (momentos de movimiento) de cada átomo que constituye el sistema. La conectividad requiere que consideremos solo aquellos microestados para los cuales: (I) las ubicaciones de todas las partes se encuentran dentro del recipiente, (II) para obtener la energía total del gas, se suman las energías cinéticas de los átomos.

Según la definición, la entropía es una función del estado, es decir, no depende de la forma en que se alcance este estado, sino que está determinada por los parámetros de este estado. Dado que solo puede ser un número natural (1, 2, 3, ...), la entropía de Boltzmann debe ser no negativa  , según las propiedades del logaritmo .

Entendiendo la entropía como una medida del desorden

Existe la opinión de que podemos considerar la entropía como una medida del desorden en un sistema. En cierto sentido, esto puede justificarse porque pensamos que los sistemas "ordenados" tienen muy poca configurabilidad y los sistemas "desordenados" tienen muchos estados posibles. En realidad, esta es solo una definición reformulada de entropía como el número de microestados por macroestado dado.

Considere, por ejemplo, la distribución de moléculas de gas ideal. En el caso de un gas ideal, el estado más probable correspondiente a la máxima entropía será una distribución uniforme de moléculas. Al mismo tiempo, también se realiza el máximo "desorden", ya que habrá máximas posibilidades de configuración.

Sin embargo, la comprensión de la entropía como una medida del desorden en un sistema termodinámico, que se ha generalizado, no es generalmente aceptada [98] : “La identidad de la entropía con el desorden no solo nunca ha sido probada por nadie y no solo no puede ser demostrada. probado en principio, pero también contradice directamente la realidad, los hechos observables…” [98] ; “... aplicada a los sistemas reales, la entropía no es una medida del desorden ” [99] ; “...en el curso del crecimiento de la entropía del Universo, su complejidad general (del Universo) crece, sin embargo, para los (sub)sistemas reales que componen el Universo, la entropía no es una medida de desorden/complejidad ” [100] .

Límites de aplicabilidad de la comprensión de la entropía como medida del desorden

Tal definición del desorden de un sistema termodinámico como el número de posibilidades para configurar el sistema en realidad corresponde literalmente a la definición de entropía como el número de microestados por macroestado dado. Los problemas comienzan en dos casos:

En ambos casos, la aplicación del concepto de entropía termodinámica está completamente injustificada [101] .

Consideremos ambos puntos con más detalle.

Considere un ejemplo de un sistema termodinámico: la distribución de moléculas en un campo gravitatorio. En este caso, la distribución de moléculas más probable será la distribución según la fórmula barométrica de Boltzmann. Otro ejemplo es tener en cuenta las fuerzas electromagnéticas de interacción entre iones. En este caso, el estado más probable correspondiente a la mínima energía libre será un estado cristalino ordenado, y no "caos" en absoluto, aunque en el estado de "caos" el valor de la entropía configuracional del sistema es aún menor. (El término "caos" aquí se entiende en el sentido de desorden, en un sentido ingenuo. Por supuesto, esto no tiene nada que ver con el caos en el sentido matemático como un sistema no lineal altamente inestable).

Consideremos el caso con una red cristalina con más detalle. La red cristalina puede estar tanto en un estado de equilibrio como de no equilibrio, como cualquier sistema termodinámico. Digamos que tomamos el siguiente modelo: un conjunto de osciladores que interactúan. Considere algún estado de no equilibrio: todos los osciladores tienen la misma desviación de la posición de equilibrio. Con el tiempo, este sistema pasará a un estado de equilibrio TD, en el que las desviaciones (en cada momento del tiempo) estarán sujetas a alguna distribución del tipo Maxwell (solo esta distribución será para las desviaciones, y dependerá del tipo de interacción de osciladores). En este caso, la máxima entropía realmente realizará las máximas posibilidades de configuración, es decir, el desorden según la definición anterior. Pero este "desorden" no corresponde en absoluto a "desorden" en ningún otro sentido, por ejemplo, informativo. La misma situación surge en el ejemplo con la cristalización de un líquido superenfriado, en el que la formación de estructuras a partir de un líquido "caótico" procede en paralelo con un aumento de la entropía.

Es decir, cuando se forma un cristal a partir de un líquido sobreenfriado, la entropía aumenta con un aumento simultáneo de la temperatura. Si la cristalización va acompañada de la eliminación de calor del sistema, la entropía disminuirá.

Este malentendido de la entropía apareció durante el desarrollo de la teoría de la información , debido a la paradoja de la termodinámica asociada con el llamado experimento mental del " demonio de Maxwell ". La esencia de la paradoja fue que se consideraron dos recipientes con diferentes temperaturas, conectados por un tubo estrecho con persianas, que fueron controlados por el llamado "demonio". El "Demonio" podría medir la velocidad de las moléculas voladoras individuales y, por lo tanto, pasar selectivamente las más rápidas a un recipiente con una temperatura alta y las más lentas a un recipiente con una temperatura baja. Una aparente contradicción con la segunda ley de la termodinámica siguió a este experimento mental.

La paradoja se puede resolver con la ayuda de la teoría de la información. Para medir la velocidad de una molécula, el "demonio" tendría que obtener información sobre su velocidad. Pero toda adquisición de información es un proceso material acompañado de un aumento de entropía. El análisis cuantitativo [102] mostró que el aumento de entropía durante la medición supera en valor absoluto la disminución de entropía provocada por la redistribución de moléculas por parte del "demonio".

Medida de entropía

En experimentos reales es muy difícil medir la entropía de un sistema. Las técnicas de medición se basan en la definición termodinámica de la entropía y requieren una calorimetría extremadamente precisa .

Para simplificar, investigaremos un sistema mecánico, cuyos estados termodinámicos estarán determinados a través de su volumen y presión . Para medir la entropía de un estado particular, primero debemos medir la capacidad calorífica a volumen y presión constantes (indicados por y respectivamente), para un conjunto exitoso de estados entre el estado original y el deseado. Las capacidades térmicas están relacionadas con la entropía y la temperatura según la fórmula:

donde el subíndice se refiere a volumen y presión constantes. Podemos integrar para obtener el cambio de entropía:

Así, podemos obtener el valor de la entropía de cualquier estado ( , ) con respecto al estado inicial ( , ). La fórmula exacta depende de nuestra elección de estados intermedios. Por ejemplo, si el estado inicial tiene la misma presión que el estado final, entonces

Además, si el camino entre el primer y el último estado es a través de cualquier transición de fase de primer orden , también se debe tener en cuenta el calor latente asociado con la transición.

La entropía del estado inicial debe determinarse de forma independiente. Idealmente, el estado inicial se elige como el estado a una temperatura extremadamente alta, en el que el sistema existe en forma de gas. La entropía en este estado es similar a la de un gas ideal clásico, más las contribuciones de las rotaciones y vibraciones moleculares, que pueden determinarse espectroscópicamente .

Trazando el cambio en la entropía

La siguiente ecuación se puede utilizar para trazar el cambio de entropía en un diagrama para un gas ideal :

Hay dos comentarios aquí:

"¿Qué es la entropía?"

No hay una respuesta inequívoca a esta pregunta por la sencilla razón de que hay muchas entropías diferentes: el concepto de entropía se usa en varias disciplinas científicas: termodinámica, física estadística, teoría de la información, etc. Pero tampoco hay uniformidad dentro de cada una de las disciplinas enumeradas: en la teoría de la información, se considera la entropía de Shannon , la entropía de Renyi , la entropía de Chisar , la entropía de Havrd-Charwat-Daroshi [103] ; la física estadística opera con entropías de Boltzmann, Gibbs , Tsallis ; Hay varias definiciones de entropía termodinámica. La definición significativa de una entropía particular depende de la axiomática del sistema de construcción/exposición que utiliza esta entropía. Por esta razón, no existe una definición universal de entropía termodinámica, ya que para diferentes sistemas axiomáticos de termodinámica, la respuesta a la pregunta planteada en el título será diferente.

Los estudiantes que comienzan a estudiar termodinámica a menudo se quejan de la incomprensibilidad de la entropía asociada con la falta de claridad (la figura ilustra la relatividad de las ideas de las personas sobre la claridad, la comprensibilidad y la simplicidad de los sistemas termodinámicos [K 1] ).

Para describir los fenómenos térmicos en física, se introducen nuevas cantidades físicas complementarias (mutuamente complementarias) - temperatura y entropía - definiciones significativas para las cuales no se dan ni en mecánica ni en electrodinámica. En la termodinámica de Clausius-Carathéodory, la entropía se presenta como la energía interna reducida de un sistema isotérmico, es decir, la diferencia de entropía es igual al calor reducido del proceso isotérmico.

En la termodinámica de Gibbs y en el sistema de A. A. Gukhman, la entropía es un concepto básico indefinido; tal es la respuesta significativa a la pregunta que se está considerando en estos sistemas [K 2] . En la axiomática termodinámica de A. A. Gukhman [105] [106] [107] [108] [109] [110] y la termodinámica racional en la interpretación de P. A. Zhilin [65] [K 3] , tanto la temperatura como la entropía se introducen como indefinidas variables base, irreductibles a otras más simples [K 4] . Una adición explicativa a la definición de entropía según Guchman explica que la entropía es la coordenada del estado en interacción térmica (intercambio de calor), que se expresa en la transferencia de entropía de un objeto a otro [112] .

En la termodinámica racional, en la interpretación de la escuela de Truesdell , se utiliza como variable térmica básica la temperatura , es decir, una magnitud física familiar y por ello comprensible para todos. La entropía se introduce como una útil función auxiliar de energía y temperatura [113] :

pero, en contraste con otra función de energía y temperatura, la capacidad calorífica [114]

la fórmula que sirve como definición de entropía no incluye una derivada, sino una integral. Una adición explicativa a la respuesta, adecuada para casi [K 5] para cualquier forma de presentar la termodinámica, establece que la entropía es necesaria para construir el aparato matemático de la termodinámica y, por lo tanto, involucra a la termodinámica en la resolución de cualquier problema científico o práctico, explícita o implícitamente. , implica el uso de la entropía. El beneficio que trae a la gente el recurrir a la termodinámica es el beneficio de introducir la entropía en el aparato conceptual de la ciencia. Además de lo anterior, podemos hacer una analogía con la capacidad calorífica: si para los procesos no isotérmicos de calentar hielo, agua líquida y vapor, los costos de energía son iguales al producto de la capacidad calorífica y la diferencia de temperatura, entonces para los procesos isotérmicos de fusión y ebullición, los costos de energía son iguales al producto de la temperatura y la diferencia de entropía.

Comprender la entropía y su significado para la termodinámica significa que es necesario conocer el origen de esta cantidad, comprender sus conexiones con otras variables termodinámicas y poder aplicar la entropía en la práctica [K 6] [104] .

Véase también

Comentarios

  1. La visibilidad, la comprensibilidad, la obviedad y la simplicidad son juicios relativos, que dependen tanto de la cotidianidad del concepto como del nivel de conocimiento humano. Los campesinos conocían el caballo desde la infancia, y es claro y comprensible para ellos. Para los ingenieros térmicos, un motor térmico es claro y comprensible, no un caballo. W. Thomson preguntó una vez a los estudiantes en una conferencia: "¿Saben quién es un matemático?" Después de escribir en la pizarra del aula: , Thomson se dirigió a los alumnos y, señalando esta fórmula, dijo: “Un matemático es aquel para quien esto es tan obvio como para ustedes que dos por dos son cuatro” [104] .
  2. La caracterización descriptiva de la entropía como una coordenada de estado térmico (térmico) no niega el hecho de que en el sistema de Guchmann la entropía es uno de los principales conceptos indefinidos de la teoría.
  3. Aquí hay una cita de un artículo de K. Truesdell , que demuestra la coincidencia de sus puntos de vista con el enfoque de P. A. Zhilin: “He estado repitiendo durante muchos años, dejando de lado la burla de las personas dotadas de intuición física, que la temperatura y la entropía son , junto con variables indefinidas iniciales de masa, posición y tiempo. Se describen solo por aquellas propiedades que pueden expresarse en el lenguaje de las matemáticas” [111] . Estos puntos de vista sobre la temperatura y la entropía difieren de los que ahora se consideran comúnmente como una característica distintiva de la "termodinámica racional en la interpretación de la escuela de Truesdell".
  4. Para dar una definición significativa a cualquier concepto, es necesario indicar de qué concepto más general es un caso especial. Si no hay un concepto más fundamental, entonces el concepto al final de la cadena de definiciones es indefinido: el concepto básico (primario, inicial, inicial) del sistema axiomático, irreductible a otros más simples. En cualquier ciencia existen tales conceptos primarios, esos ladrillos elementales a partir de los cuales se construyen todos los demás conceptos derivados, y que no reciben definiciones significativas en la propia disciplina científica. Ejemplos de conceptos básicos indefinidos son: en matemáticas - un conjunto, en física - espacio, tiempo, masa, energía, etc./definiciones descriptivas de variables y, en segundo lugar, las propiedades de los conceptos básicos/variables se describen mediante los axiomas de la teoría bajo consideración. En otras palabras, el conjunto de conceptos/variables básicos de una disciplina científica depende de la elección del sistema de presentación/construcción de esta disciplina, y el conjunto completo de sus axiomas forma un sistema de definiciones significativas de los conceptos/variables básicos de la teoría.
  5. La palabra "casi" sirve como recordatorio de que cualquier sistema de construcción/presentación de la termodinámica, en el que la entropía es un concepto secundario (derivado de conceptos más generales), puede en principio transformarse en otro sistema - "termodinámica sin entropía", - en cuya entropía como noción opcional ya no se utiliza [115] . En relación con lo anterior, mencionamos que el autor de la tercera ley de la termodinámica , Walter Nernst , en sus obras no “utilizó el concepto de entropía, que consideraba poco claro y por lo tanto simplemente no le gustaba” [116] (Nernst utilizó la energía libre de Helmholtz asociada al trabajo máximo , es decir, sustituyó la entropía por la derivada de la energía de Helmholtz con respecto a la temperatura tomada con signo menos [117] ).
  6. En relación con lo anterior, son de interés las memorias de I. K. Kikoin , quien asistió al seminario de V. A. Fok en sus años de estudiante y contó la historia sobre la búsqueda de una solución a un problema complejo en electrostática: “... en Al final, obtuvimos una ecuación diferencial larga. Ocupaba todo el tablero. Seguimos los cálculos matemáticos con mucho cuidado, por lo que todo estaba en orden con las matemáticas, pero no pudimos ver el significado físico escondido detrás de esta larga fórmula. Uno de los estudiantes le preguntó a Vladimir Aleksandrovich: "¿Y cuál es el significado físico de esta ecuación?". “Él nos miró con reproche y dijo: “Y el significado físico de esta ecuación es que tiene solución”” [118] .

Notas

  1. Clausius, 1934 .
  2. Carathéodory .
  3. Gibbs, J.W., Termodinámica. Mecánica Estadística, 1982 .
  4. Hazen, 2000 , capítulo VI, sección 4. Una formulación completa y cerrada de la definición axiomática de entropía y los principios de la termodinámica..
  5. Petrov N., Brankov J., Problemas modernos de la termodinámica, 1986 , p. 35.
  6. Semenchenko, 1966 , pág. 54.
  7. Clausius, 1887 , S. 33.
  8. Nacido, 1964 , pág. 230–231.
  9. El signo o antes es el resultado de un acuerdo sobre qué tipo de trabajo se considera positivo: realizado por el sistema o realizado en el sistema. Las variantes de las formulaciones de la primera ley que se encuentran en la literatura científica y educativa, que difieren en los signos de las cantidades incluidas en las fórmulas, son equivalentes entre sí.
  10. Nacido, 1964 , pág. 231.
  11. Elemental ( infinitesimal ) es un proceso para el cual la diferencia entre los estados inicial y final del sistema es infinitamente pequeña.
  12. Uno simple se llama sistema cerrado de deformación térmica , el cual es un medio isotrópico homogéneo ( fase ) de composición química y masa constante , descrito por variables (presión), (volumen) y (temperatura). Tal sistema tiene dos grados de libertad termodinámicos , es decir, solo dos de las tres variables de estado enumeradas son independientes. Los sistemas simples incluyen, en particular, gases y líquidos ( fluidos ) en una situación en la que se pueden despreciar los efectos de superficie y la presencia de campos de fuerza externos. En una interpretación más amplia, se entiende por simple cualquier sistema de deformación térmica con dos grados de libertad, es decir, un sistema termodinámico de este tipo, cuyo único tipo de trabajo es el trabajo de expansión (Sychev V.V., Differential Equations of Thermodynamics, 1991, pág. 9).
  13. Sivukhin D.V., Termodinámica y física molecular, 2005 , p. 59.
  14. 1 2 Radushkevich L.V., Curso de termodinámica, 1971 , p. 36.
  15. Bazarov I.P., Termodinámica, 2010 , p. 37.
  16. Las condiciones para la integrabilidad de polinomios diferenciales se consideran en detalle en el libro Belokon N.I. , Thermodynamics, 1954, p. 137-138.
  17. Krichevsky I. R., Conceptos y fundamentos de la termodinámica, 1970 , p. 270.
  18. Sychev, 1991 , pág. 22
  19. 1 2 Putilov K. A., Termodinámica, 1971 , p. 13
  20. Kvasnikov, 2002 , pág. 43.
  21. 1 2 Sychev, 1991 , p. 24
  22. Radushkevich L.V., Curso de termodinámica, 1971 , p. 111.
  23. 1 2 Bazarov I.P., Termodinámica, 2010 , p. 27
  24. Sychev, 2009 , pág. 13
  25. Kubo R., Termodinámica, 1970 , p. 21
  26. Bazarov I.P., Termodinámica, 2010 , p. 27–29.
  27. Semenchenko, 1966 , pág. 55.
  28. Sychev, 2009 , pág. catorce.
  29. 1 2 Kubo R., Termodinámica, 1970 , p. veinte.
  30. Bazarov I.P., Termodinámica, 2010 , p. 38.
  31. Radushkevich L.V., Curso de termodinámica, 1971 , p. 38.
  32. Glazov V. M., Fundamentos de química física, 1981 , p. 29
  33. Putilov K. A., Termodinámica, 1971 , p. 40
  34. Sage B. H., Termodinámica de sistemas multicomponente, 1969 , p. 54.
  35. Tamm M. E., Tretyakov Yu. D., Fundamentos físicos y químicos de la química inorgánica, 2004 , p. once.
  36. León, 2008 , pág. catorce.
  37. Zharikov, 2005 , ecuación (2.4).
  38. Callen, 1985 , pág. 36.
  39. Sychev, 2009 , pág. 257.
  40. Putilov K. A., Termodinámica, 1971 , p. 125.
  41. El uso de las masas de los componentes, y no de las masas de las sustancias que componen el sistema, como coordenadas generalizadas en la expresión del trabajo químico significa negarse a considerar directamente la influencia de las reacciones químicas sobre las masas de las sustancias, porque la química Las transformaciones en el sistema ya se tienen en cuenta al calcular el número de componentes.
  42. Kvasnikov I. A., Molecular Physics, 2009 , p. 31
  43. Kvasnikov, 2002 , pág. 22
  44. 1 2 Petrov N., Brankov J., Problemas modernos de la termodinámica, 1986 , p. 66.
  45. 1 2 3 Tisza, 1966 .
  46. G. D. Baer, ​​Termodinámica técnica, 1977 , p. 73.
  47. Zalewski, K., Termodinámica fenomenológica y estadística, 1973 , p. diez.
  48. I. Prigozhin, D. Kondepudi, Termodinámica moderna, 2002 , p. 52.
  49. Kubo R., Termodinámica, 1970 , p. dieciséis.
  50. Zhilin P. A., Mecánica continua racional, 2012 .
  51. “... Los conceptos de energía, temperatura, entropía y potencial químico se introducen simultáneamente y es fundamentalmente imposible determinarlos por separado” (p. 48), “... No se puede determinar primero la energía interna y luego la Potencial químico y entropía. Todos estos conceptos sólo pueden ser introducidos simultáneamente” (p. 140).
  52. 1 2 Petrov N., Brankov J., Problemas modernos de la termodinámica, 1986 , p. 43.
  53. Voronin G.F., Fundamentos de termodinámica, 1987 , p. cincuenta.
  54. Callen, 1985 , pág. 28-29.
  55. 1 2 Munster A., ​​Termodinámica química, 1971 , p. 69.
  56. A. Munster, Termodinámica química, 1971 , p. 70.
  57. A. Munster, Termodinámica química, 1971 , p. 67.
  58. El mismo Gibbs formuló estos postulados en su obra principal sobre termodinámica "Sobre el equilibrio de las sustancias heterogéneas" como necesarios, como de pasada, y no llamó axiomas ni postulados a las afirmaciones que aceptó sin prueba.
  59. 1 2 Gibbs, J.W., Termodinámica. Mecánica Estadística, 1982 , p. 93.
  60. 1 2 3 Guggenheim, 1985 , pág. quince.
  61. 1 2 3 Callen, 1985 , pág. 35.
  62. Truesdell, K., Termodinámica para principiantes, 1970 .
  63. Truesdell, K., Curso primario de mecánica continua racional, 1975 .
  64. Truesdell, 1984, 1984 .
  65. 1 2 Zhilin P. A., Mecánica continua racional, 2012 .
  66. Maksimov, 2009 .
  67. Maksimov, 2009 , pág. 5.
  68. Maksimov, 2009 , pág. 5-6.
  69. 1 2 3 Maksimov, 2009 , pág. 7.
  70. 1 2 Petrov N., Brankov J., Problemas modernos de la termodinámica, 1986 , p. 71–72.
  71. A. Munster, Termodinámica química, 1971 , p. 90–91.
  72. 12 Callen , 1985 , pág. 28
  73. 1 2 3 Munster A., ​​Termodinámica química, 1971 , p. 92.
  74. Sorokin V.S., Macroscopic irreversibility and entropy. Introducción a la termodinámica, 2004 , p. 55.
  75. Voronin G.F., Fundamentos de termodinámica, 1987 , p. 51.
  76. Petrov N., Brankov J., Problemas modernos de la termodinámica, 1986 , p. 67.
  77. Kubo R., Termodinámica, 1970 , p. 85-86.
  78. Buchdahl HA, Los conceptos de la termodinámica clásica, 1966 , p. 74.
  79. A. Sommerfeld, Termodinámica y física estadística, 1955 , p. 52.
  80. En termodinámica, la aditividad se distingue por el tamaño del sistema (longitud de una barra elástica o resorte, área de interfaz, volumen) y la aditividad por masa. Es claro que este último concepto no es universal, e incluso la aditividad de variables extensivas con respecto al volumen no garantiza que la noción de aditividad con respecto a la masa se pueda aplicar a estas variables. Por ejemplo, no es adecuado para variables de volumen agregado de un gas fotónico  , un sistema con masa cero.
  81. Petrov N., Brankov J., Problemas modernos de la termodinámica, 1986 , p. 62.
  82. D. Ter Haar, G. Wergeland, Termodinámica elemental, 1968 , p. 117.
  83. Landau L. D., Lifshits E. M., Física estadística. Parte 1, 2002 , pág. 51.
  84. Falk, Jung, 1959 , pág. 156.
  85. Sychev, 1991 , pág. quince.
  86. Voronin G.F., Fundamentos de termodinámica, 1987 , p. 53.
  87. Temperatura negativa . TSB, 3.ª ed., 1975, v. 19 .
  88. 1 2 3 4 Petrov N., Brankov J., Problemas modernos de la termodinámica, 1986 , p. 68.
  89. Callen, 1985 , pág. treinta.
  90. Bazarov I.P., Termodinámica, 2010 , p. 92.
  91. Tisza, 1966 , pág. 125.
  92. 1 2 Novikov I. I., Termodinámica, 1984 , p. 106.
  93. Bazarov I.P., Termodinámica, 2010 , p. 121.
  94. 1 2 Voronin G.F., Fundamentos de la termodinámica, 1987 , p. 102.
  95. Cambio mental admisible (que no contradice las condiciones de existencia del sistema) en la entropía que no depende del tiempo. La definición de variación encontrada en la literatura como una desviación del equilibrio permitida por las conexiones (condiciones) impuestas al sistema significa lo mismo.
  96. Bazarov IP et al. , Termodinámica y física estadística, 1986 , p. 26
  97. Bazarov I.P., Termodinámica, 2010 , p. 29
  98. 1 2 Khaitun S. D. , Crisis de la teoría del conocimiento, 2014 , p. 98.
  99. Khaitun S. D. , Crisis de la teoría del conocimiento, 2014 , p. 100.
  100. Khaitun S. D. , Crisis de la teoría del conocimiento, 2014 , p. 102.
  101. Lambert Frank L. Una breve introducción a la segunda ley y a la entropía para estudiantes de química
  102. Brillouin L. Teoría de la ciencia y la información. - M., 1960.
  103. Zaripov R. G. , Nuevas medidas y métodos en la teoría de la información, 2005 , p. 175.
  104. 1 2 Krichevsky I. R., Petryanov I. V. Termodinámica para muchos, 1975 , p. 146.
  105. Gukhman, 2010 , pág. once.
  106. Lyashkov V.I., Fundamentos teóricos de la ingeniería térmica, 2015 , p. diez.
  107. Tsirlin A. M., Métodos de optimización en termodinámica irreversible y microeconomía, 2003 , p. 19
  108. Isaev S.I., Curso de termodinámica química, 1986 , p. Dieciocho.
  109. Zhukovsky V.S., Termodinámica, 1983 , p. once.
  110. Leonova V.F., Termodinámica, 1968 , p. 19-20.
  111. K. Truesdell, Termodinámica para principiantes, 1970 , p. 117.
  112. Sviridov V.V., Sviridov A.V., Química física, 2016 , p. 113.
  113. Maksimov, 2009 , pág. 7.
  114. Maksimov, 2009 , pág. 6.
  115. Ignatovich V.N. , Introducción a la ciencia natural materialista dialéctica, 2007 , p. 411.
  116. Gelfer Ya. M. , Historia y metodología de la termodinámica y la física estadística, 1981 , p. 228.
  117. Nernst Walther , Theoretische Chemie, 1900 , pág. 29.
  118. Kikoin I.K. Historias sobre física y físicos, 1986 , p. 33.

Literatura

Enlaces