entropía | |
---|---|
Dimensión | |
Unidades | |
SI | J / K |
SGA | ergio / K |
La entropía termodinámica , a menudo denominada simplemente entropía , es una cantidad física utilizada para describir un sistema termodinámico , una de las cantidades termodinámicas básicas ; la entropía y la temperatura son cantidades termodinámicas conjugadas necesarias para describir las propiedades térmicas de un sistema y los procesos térmicos en él. La entropía es una función de estado y es ampliamente utilizada en termodinámica , tanto técnica (análisis del funcionamiento de motores térmicos y plantas de refrigeración ) como química (cálculo de equilibrios de reacciones químicas ).
El enunciado sobre la existencia de la entropía y la enumeración de sus propiedades constituyen el contenido de la segunda y tercera leyes de la termodinámica . La importancia de esta cantidad para la física se debe a que, junto con la temperatura, se utiliza para describir fenómenos térmicos y propiedades térmicas de objetos macroscópicos. Las ideas cualitativas sobre el estado térmico del sistema están asociadas a sensaciones térmicas expresadas por los conceptos de " más cálido ", " más frío ", " calentamiento ", " enfriamiento ", "grado de calentamiento". Las propiedades térmicas incluyen propiedades que caracterizan el comportamiento de una sustancia cuando se calienta o se enfría: coeficientes térmicos , capacidad calorífica y otros coeficientes calóricos , constante de Curie , indicadores de resistencia al calor , límites de resistencia al fuego , etc.; ejemplos de fenómenos térmicos son expansión térmica , piroelectricidad , efecto electrocalórico , conductividad térmica , cambios en el estado de agregación : cristalización y congelación, fusión y fusión , evaporación , ebullición , sublimación ( sublimación ), condensación y otros procesos.
El concepto de entropía, su designación y nombre fueron introducidos por R. Clausius (1865). La abstracción de este concepto -una de las piedras angulares de la termodinámica- y la variedad de enfoques para justificar la existencia de la entropía como una cantidad termodinámica llevaron al surgimiento de la axiomática de la termodinámica .
En termodinámica, la entropía se introduce comprobando su existencia, enumerando sus propiedades y construyendo una escala de medición basada en la primera , segunda y tercera ley de la termodinámica.
En los formalismos termodinámicos de Clausius [1] y Carathéodory [2] , la entropía se introduce simultáneamente con la temperatura termodinámica absoluta . El aparato matemático de la termodinámica de Gibbs [3] se basa en el uso de la entropía como variable termodinámica independiente, mientras que la temperatura, un candidato natural para este papel, se introduce como una función de la energía interna y la entropía. Finalmente, en la termodinámica racional , la entropía se expresa en términos de energía interna y temperatura, que se consideran como las principales variables indefinidas de la teoría.
La primera ley (ley) de la termodinámica establece una conexión entre la energía interna, el trabajo y el calor : una de estas cantidades físicas se da con la ayuda de las otras dos, que, siendo los objetos iniciales de la teoría, no pueden determinarse dentro del marco de esta teoría en sí misma simplemente porque no hay conceptos más generales, bajo los cuales podrían resumirse [4] . La termodinámica toma prestados los conceptos de energía y trabajo de otras ramas de la física [5] [6] , mientras que la definición de la cantidad de calor, por el contrario, se da única y precisamente en la termodinámica. Según Clausius, el calor se determina a través de la energía interna y el trabajo [7] [8] . Cuando se utiliza la regla de los signos termodinámicos [9] , la expresión matemática de la primera ley de la termodinámica en la formulación de Clausius es [10] :
(Definición de calor según Clausius) |
La primera ley en esta formulación introduce el calor como una característica física del proceso, cuyo comportamiento está determinado por la ley de conservación de la energía, pero no lo define como un objeto matemático. Es más fácil detallar la definición de calor para un proceso de equilibrio cuando el trabajo, y por lo tanto el calor, pueden expresarse en términos de variables de estado. Para un proceso de equilibrio infinitamente pequeño [11] en un sistema simple [12] , el único tipo posible de trabajo es el trabajo de expansión/compresión :
(Trabajo de expansión/contracción para un proceso de equilibrio en un sistema simple) |
donde es presión, es volumen; el símbolo significa que la cantidad correspondiente se refiere a un proceso infinitesimal. Así, para la primera ley de la termodinámica en la formulación de Clausius, obtenemos [13] [14] :
(Primera ley para un proceso de equilibrio en un sistema simple) |
donde es el calor elemental (infinitamente pequeño) del proceso.
Esta expresión, que define el calor elemental como un objeto matemático, es una forma diferencial lineal ( forma de Pfaff ) para dos variables independientes. Para una forma Pfaffiana dada , la condición de integrabilidad de Euler no se cumple, es decir , hay un funcional [15] , y no un diferencial total de una función inexistente [14] . Sin embargo, se sabe por la teoría de las formas diferenciales que si se cumple la condición de Frobenius [16] , entonces la forma de Pfaffian tiene un factor de integración/divisor , que convierte esta forma en una diferencial total y es una función de la misma forma independiente. variables que entran en la forma de Pfaff [17] . Las formas de Pfaffian que tienen un factor de integración/divisor se llaman holonómicas ; la forma de Pfaffian de dos variables siempre es holonómica (teorema de Cauchy) [18] [19] . Por lo tanto, para sistemas de equilibrio simple, existe una función de estado cuyo diferencial total es igual a
(Definición de la entropía de un sistema de equilibrio simple) |
dónde
hay un divisor integrador para la forma de Pfaff . Clausius llamó a la función de estado entropía (del griego ἐντροπία - cambio, transformación, transformación). La segunda ley de la termodinámica establece que la entropía existe para cualquier sistema en equilibrio, no solo para los simples, y que el factor de integración es la temperatura termodinámica absoluta [20] [21] [22] [19] . La termodinámica de no equilibrio extiende el concepto de entropía local y temperatura local a cualquier sistema termodinámico.
La integración de la ecuación de la entropía conduce a la aparición de una constante arbitraria en la expresión de la función, dependiendo de la elección del punto de referencia inicial de la entropía. La arbitrariedad en la elección del estado inicial de entropía elimina la tercera ley de la termodinámica .
El enfoque tradicional para la construcción de la termodinámica (axiomática de Clausius-Carathéodory) se basa en utilizar el concepto de energía interna como concepto básico de la teoría, tomando prestadas fórmulas para calcular el trabajo termodinámico de la mecánica y la electrodinámica de los continuos , y la primera ley de la termodinámica. en la formulación de Clausius .
Además del trabajo de expansión/compresión, el sistema puede realizar simultáneamente otros tipos de trabajo, por ejemplo, el trabajo de cambio de área de la interfaz de fase , el trabajo de desplazamiento en el campo gravitatorio , el trabajo de polarización dieléctrica en un campo eléctrico, etc. Todos estos tipos de trabajo están unidos por la identidad estructural formal de las fórmulas de cálculo de cada uno con un amigo y con una expresión para la operación de expansión/compresión [23] [24] [25] :
donde es el trabajo elemental del tipo th, es la coordenada generalizada conjugada con la fuerza generalizada Cada coordenada generalizada tiene su propia fuerza generalizada; las variables físicas correspondientes a coordenadas y fuerzas generalizadas se especifican en relación con el problema que se está resolviendo [26] [27] .
Si un sistema homogéneo realiza simultáneamente varios tipos diferentes de trabajo, entonces se suman y el trabajo total del sistema es [23] [28] [29]
(Trabajo total para un proceso de equilibrio en un sistema homogéneo) |
y para la primera ley de la termodinámica obtenemos la relación [30] [31] :
(Primera ley para un proceso de equilibrio en un sistema homogéneo) |
que, como en el caso de un sistema simple, es la forma de Pfaffian. Una consecuencia de la segunda ley de la termodinámica en cualquiera de sus formulaciones es la conclusión de que la forma de Pfaffian para cualquier número de variables es siempre holonómica [21] y, por lo tanto, para cualquier sistema termodinámico cerrado existe una entropía
(Entropía de un sistema cerrado homogéneo) |
y temperatura termodinámica absoluta
Una expresión es una abreviatura para enumerar variables de cierto tipo, en este caso, coordenadas generalizadas.
Asumiendo que el calor y el trabajo son las dos únicas formas posibles de transferencia de energía [32] [33] [34] , y el cambio de energía asociado con la transferencia de materia en un sistema abierto es una parte integral del trabajo total, llamado químico trabajo (el trabajo de redistribución de masas de sustancias [35] ), en el caso de un sistema abierto homogéneo, la forma diferencial para un sistema cerrado debe complementarse con un término que tenga en cuenta el trabajo químico elemental [36] [37 ] [38] [39] [40] :
(Trabajo químico para un proceso de equilibrio en un sistema homogéneo abierto) |
donde es la masa del componente th [41] , es el potencial químico de este componente.
La forma de Pfaffian para un sistema homogéneo abierto es [29]
(Primera ley para un proceso de equilibrio en un sistema homogéneo abierto) |
Más razonamientos sobre la existencia de la entropía
y temperatura termodinámica absoluta
para un sistema abierto no son diferentes de las consideraciones realizadas al considerar un sistema cerrado, por lo que las siguientes son las razones por las que los sistemas abiertos requieren una consideración por separado.
La primera de estas razones es que el uso del trabajo químico como parte del trabajo general en el aparato conceptual de la termodinámica hace que las ideas sobre el aislamiento adiabático no sean equivalentes al imponer una prohibición sobre el intercambio de materia (es decir, cualquier sistema aislado adiabáticamente es un sistema cerrado o, en otras palabras, la masa es una cantidad impedida adiabáticamente) [42] [43] [44] [45] , y el aislamiento adiabático que permite el intercambio de energía solo en forma de [46] [47] . Es posible restablecer la equivalencia de las formulaciones anteriores sobre el aislamiento adiabático si modificamos la definición de calor según Clausius agregando al calor y al trabajo la tercera forma de transferencia de energía : energía de transferencia de masa [48] [49] :
(Definición modificada de calor para un sistema abierto) |
donde viene dada por la expresión para el trabajo químico .
La segunda razón para una consideración separada de la cuestión de la entropía de los sistemas abiertos es la siguiente. Con la excepción del potencial químico, todas las variables incluidas en la forma de Pfaffian para un sistema abierto en el marco del formalismo termodinámico son cantidades indeterminadas tomadas de otras ramas de la física, lo que implica que no necesariamente se describen en la propia termodinámica. El potencial químico se introduce en la termodinámica y debe referirse a los conceptos básicos indefinidos, para los cuales solo es posible una descripción explicativa, o se requiere una definición exacta del potencial químico de la termodinámica. Como cantidad indeterminada, el potencial químico se puede introducir simultáneamente con la temperatura y la entropía (además, P. A. Zhilin [50] considera que este enfoque es el único correcto [51] ), pero tradicionalmente, se prefiere introducir el potencial químico en consideración como una variable secundaria basada en una representación preformada sobre la entropía de un sistema abierto. Para ello, siguiendo a W. Gibbs [52] [45] , sin demostración, aceptamos el enunciado sobre la existencia de la entropía de un sistema abierto [53] [54] [55]
(Entropía de Gibbs de un sistema homogéneo abierto; ecuación fundamental de Gibbs en expresión de entropía ) |
en función del estado, con las masas de los componentes sin cambios, coincidiendo con la entropía de un sistema cerrado homogéneo . De la ecuación fundamental de Gibbs en forma diferencial [55]
(Forma diferencial de la ecuación fundamental de Gibbs para la entropía) |
encontramos los valores de las derivadas parciales de la entropía:
El potencial químico del componente th se expresa en términos de la derivada parcial de la entropía con respecto a la masa de este componente [56] :
(Definición del potencial químico de un componente) |
La construcción de una teoría basada en la postulación de la existencia de la entropía como función de estado, cuyas variables independientes incluyen las masas de los componentes, es el principal contenido de la termodinámica de Gibbs [57] , y la forma en que se extiende la termodinámica de Clausius a sistemas abiertos nos permite hablar de la axiomática de Gibbs [52] [ 45] . En la termodinámica de Gibbs se introducen los conceptos de componente del sistema, fase y sistema heterogéneo multifásico , postulan la existencia de energía interna y entropía como variables de estado aditivas , postulan la relación de estas cantidades con variables de estado independientes en forma de fundamentales Las ecuaciones de Gibbs en expresiones de energía y entropía, postulan la aditividad de los constituyentes de estas ecuaciones fundamentales de variables independientes, postulan que existe una temperatura termodinámica, introducen un potencial químico y postulan una condición general de equilibrio termodinámico en el sistema [58] , que se considera a continuación entre las propiedades de la entropía.
Tenga en cuenta que la definición significativa de temperatura según Gibbs [59] [60] [61]
(Temperatura termodinámica según Gibbs) |
puede, por otro lado, considerarse como una definición descriptiva de la entropía. Es decir, la entropía en la termodinámica de Gibbs es una variable de estado tan extensiva que la derivada de la energía interna con respecto a la entropía es una variable de estado intensiva que tiene todas las propiedades requeridas para la temperatura termodinámica.
La termodinámica racional no divide la termodinámica en equilibrio y no equilibrio; ambas disciplinas se consideran como una sola parte de la física continua [62] [63] [64] [65] . La termodinámica racional del equilibrio es el resultado de aplicar la teoría general a sistemas en equilibrio [66] . Los conceptos indefinidos iniciales de la teoría son la energía , el volumen y el número de moles del componente . Por analogía con la presión
en el equilibrio mecánico que tiene el mismo valor en todas las partes del sistema, se introduce el potencial químico
como una cantidad intensiva que tiene el mismo valor en todas las partes del sistema en equilibrio químico [67] . La temperatura termodinámica absoluta se introduce mediante el siguiente axioma: existe una cantidad termodinámica intensa, temperatura
que caracteriza el grado de calentamiento de los cuerpos y tiene las siguientes propiedades [68] :
La entropía en termodinámica racional se define como una cantidad aditiva igual a [69]
Propiedades de entropía que siguen a esta definición [69] :
; ;
donde es la capacidad calorífica del sistema a volumen constante. De la definición de entropía y sus propiedades se deduce que, bajo la condición de constancia de la energía, la entropía de un sistema es máxima cuando todas las partes del sistema tienen la misma temperatura - el principio variacional de máxima entropía en un estado de equilibrio [69] . Así, la entropía es una función monotónica convexa de la energía, que alcanza un máximo en un estado de equilibrio termodinámico; el estado del sistema, tomado como el comienzo de la escala de referencia energética, es simultáneamente el estado de los puntos de referencia iniciales de temperatura y entropía.
La lista de propiedades de entropía se da en relación con la termodinámica de Gibbs; Los ejemplos dados para ilustrar las propiedades enumeradas de la entropía se refieren, por regla general, a sistemas térmicos y de deformación homogéneos abiertos para los cuales la ecuación fundamental de Gibbs en la expresión de la entropía es válida [70] [71] :
(Ecuación fundamental de Gibbs en expresión de entropía para un sistema abierto de deformación térmica) |
(Definición termodinámica de temperatura) |
(Temperatura termodinámica según Gibbs) |
(Tercera ley de la termodinámica; teorema térmico de Nernst ) |
(Condición de equilibrio para un sistema aislado) |
A partir de la expresión de la primera ley en un sistema homogéneo abierto y de la forma diferencial de la ecuación fundamental de Gibbs para la entropía , obtenemos una expresión para el calor elemental de un proceso de equilibrio (cuasiestático) [96] [97] :
(Calor de un proceso de equilibrio elemental) |
(para un sistema de equilibrio simple, esta expresión se deriva directamente de la definición de entropía ).
Esta relación , que conecta la termodinámica de Clausius con la termodinámica de Gibbs, es de interés para los usuarios que necesitan presentar material de la antigua literatura educativa y científica usando una terminología que o no usa el concepto de "calor" en absoluto, o lo usa como un término secundario. concepto definido a través de la entropía y la temperatura absoluta.
Para un proceso isotérmico de equilibrio con trabajo cero , la integración de la expresión del calor del proceso de equilibrio da la siguiente expresión para el cambio de energía interna:
es decir, en cualquier proceso isotérmico de equilibrio con trabajo cero, se gasta energía para aumentar la entropía del sistema y se libera cuando la entropía disminuye. Transformemos esta ecuación a la forma
y llame a la relación energía interna reducida . Esto implica la siguiente interpretación -una de varias existentes- del significado físico de la entropía: la entropía es la energía interna reducida de un sistema isotérmico.
Considere, como ejemplo, las transiciones de fase en el agua a presión atmosférica (ver figura). Cuando el hielo se derrite, la energía suministrada al sistema se gasta en aumentar la entropía del sistema debido a un cambio en la estructura del H 2 O, mientras que la temperatura del sistema hielo + agua se mantiene cercana a 0 °C (273 K) hasta que el hielo desaparezca por completo. Cuando el agua se congela, la situación se invierte: la energía se libera al medio ambiente a 0 °C. El calentamiento del agua formada durante el derretimiento del hielo provoca un aumento de la temperatura del agua hasta que hierve a 100 °C (373 K). Hervir agua a presión constante es un proceso isotérmico: la energía de entrada se gasta en la evaporación del agua y el aumento de la entropía del sistema agua + vapor de agua, mientras que la temperatura se mantiene cercana a los 100 °C hasta que el agua líquida desaparece por completo.
En 1877, Ludwig Boltzmann estableció la relación entre la entropía y la probabilidad de un estado dado. Posteriormente, esta relación fue presentada en forma de fórmula por Max Planck :
donde la constante 1.38⋅10 −23 J/K es llamada constante de Boltzmann por Planck , y es el peso estadístico del estado, es el número de posibles microestados (métodos) por los cuales este estado macroscópico puede estar compuesto. Este postulado, llamado principio de Boltzmann por Albert Einstein , dio origen a la mecánica estadística , que describe sistemas termodinámicos utilizando el comportamiento estadístico de sus componentes constituyentes. El principio de Boltzmann conecta las propiedades microscópicas de un sistema ( ) con una de sus propiedades termodinámicas ( ).
Considere, por ejemplo, un gas ideal en un recipiente. El microestado se define como las posiciones e impulsos (momentos de movimiento) de cada átomo que constituye el sistema. La conectividad requiere que consideremos solo aquellos microestados para los cuales: (I) las ubicaciones de todas las partes se encuentran dentro del recipiente, (II) para obtener la energía total del gas, se suman las energías cinéticas de los átomos.
Según la definición, la entropía es una función del estado, es decir, no depende de la forma en que se alcance este estado, sino que está determinada por los parámetros de este estado. Dado que solo puede ser un número natural (1, 2, 3, ...), la entropía de Boltzmann debe ser no negativa , según las propiedades del logaritmo .
Existe la opinión de que podemos considerar la entropía como una medida del desorden en un sistema. En cierto sentido, esto puede justificarse porque pensamos que los sistemas "ordenados" tienen muy poca configurabilidad y los sistemas "desordenados" tienen muchos estados posibles. En realidad, esta es solo una definición reformulada de entropía como el número de microestados por macroestado dado.
Considere, por ejemplo, la distribución de moléculas de gas ideal. En el caso de un gas ideal, el estado más probable correspondiente a la máxima entropía será una distribución uniforme de moléculas. Al mismo tiempo, también se realiza el máximo "desorden", ya que habrá máximas posibilidades de configuración.
Sin embargo, la comprensión de la entropía como una medida del desorden en un sistema termodinámico, que se ha generalizado, no es generalmente aceptada [98] : “La identidad de la entropía con el desorden no solo nunca ha sido probada por nadie y no solo no puede ser demostrada. probado en principio, pero también contradice directamente la realidad, los hechos observables…” [98] ; “... aplicada a los sistemas reales, la entropía no es una medida del desorden ” [99] ; “...en el curso del crecimiento de la entropía del Universo, su complejidad general (del Universo) crece, sin embargo, para los (sub)sistemas reales que componen el Universo, la entropía no es una medida de desorden/complejidad ” [100] .
Tal definición del desorden de un sistema termodinámico como el número de posibilidades para configurar el sistema en realidad corresponde literalmente a la definición de entropía como el número de microestados por macroestado dado. Los problemas comienzan en dos casos:
En ambos casos, la aplicación del concepto de entropía termodinámica está completamente injustificada [101] .
Consideremos ambos puntos con más detalle.
Considere un ejemplo de un sistema termodinámico: la distribución de moléculas en un campo gravitatorio. En este caso, la distribución de moléculas más probable será la distribución según la fórmula barométrica de Boltzmann. Otro ejemplo es tener en cuenta las fuerzas electromagnéticas de interacción entre iones. En este caso, el estado más probable correspondiente a la mínima energía libre será un estado cristalino ordenado, y no "caos" en absoluto, aunque en el estado de "caos" el valor de la entropía configuracional del sistema es aún menor. (El término "caos" aquí se entiende en el sentido de desorden, en un sentido ingenuo. Por supuesto, esto no tiene nada que ver con el caos en el sentido matemático como un sistema no lineal altamente inestable).
Consideremos el caso con una red cristalina con más detalle. La red cristalina puede estar tanto en un estado de equilibrio como de no equilibrio, como cualquier sistema termodinámico. Digamos que tomamos el siguiente modelo: un conjunto de osciladores que interactúan. Considere algún estado de no equilibrio: todos los osciladores tienen la misma desviación de la posición de equilibrio. Con el tiempo, este sistema pasará a un estado de equilibrio TD, en el que las desviaciones (en cada momento del tiempo) estarán sujetas a alguna distribución del tipo Maxwell (solo esta distribución será para las desviaciones, y dependerá del tipo de interacción de osciladores). En este caso, la máxima entropía realmente realizará las máximas posibilidades de configuración, es decir, el desorden según la definición anterior. Pero este "desorden" no corresponde en absoluto a "desorden" en ningún otro sentido, por ejemplo, informativo. La misma situación surge en el ejemplo con la cristalización de un líquido superenfriado, en el que la formación de estructuras a partir de un líquido "caótico" procede en paralelo con un aumento de la entropía.
Es decir, cuando se forma un cristal a partir de un líquido sobreenfriado, la entropía aumenta con un aumento simultáneo de la temperatura. Si la cristalización va acompañada de la eliminación de calor del sistema, la entropía disminuirá.
Este malentendido de la entropía apareció durante el desarrollo de la teoría de la información , debido a la paradoja de la termodinámica asociada con el llamado experimento mental del " demonio de Maxwell ". La esencia de la paradoja fue que se consideraron dos recipientes con diferentes temperaturas, conectados por un tubo estrecho con persianas, que fueron controlados por el llamado "demonio". El "Demonio" podría medir la velocidad de las moléculas voladoras individuales y, por lo tanto, pasar selectivamente las más rápidas a un recipiente con una temperatura alta y las más lentas a un recipiente con una temperatura baja. Una aparente contradicción con la segunda ley de la termodinámica siguió a este experimento mental.
La paradoja se puede resolver con la ayuda de la teoría de la información. Para medir la velocidad de una molécula, el "demonio" tendría que obtener información sobre su velocidad. Pero toda adquisición de información es un proceso material acompañado de un aumento de entropía. El análisis cuantitativo [102] mostró que el aumento de entropía durante la medición supera en valor absoluto la disminución de entropía provocada por la redistribución de moléculas por parte del "demonio".
En experimentos reales es muy difícil medir la entropía de un sistema. Las técnicas de medición se basan en la definición termodinámica de la entropía y requieren una calorimetría extremadamente precisa .
Para simplificar, investigaremos un sistema mecánico, cuyos estados termodinámicos estarán determinados a través de su volumen y presión . Para medir la entropía de un estado particular, primero debemos medir la capacidad calorífica a volumen y presión constantes (indicados por y respectivamente), para un conjunto exitoso de estados entre el estado original y el deseado. Las capacidades térmicas están relacionadas con la entropía y la temperatura según la fórmula:
donde el subíndice se refiere a volumen y presión constantes. Podemos integrar para obtener el cambio de entropía:
Así, podemos obtener el valor de la entropía de cualquier estado ( , ) con respecto al estado inicial ( , ). La fórmula exacta depende de nuestra elección de estados intermedios. Por ejemplo, si el estado inicial tiene la misma presión que el estado final, entonces
Además, si el camino entre el primer y el último estado es a través de cualquier transición de fase de primer orden , también se debe tener en cuenta el calor latente asociado con la transición.
La entropía del estado inicial debe determinarse de forma independiente. Idealmente, el estado inicial se elige como el estado a una temperatura extremadamente alta, en el que el sistema existe en forma de gas. La entropía en este estado es similar a la de un gas ideal clásico, más las contribuciones de las rotaciones y vibraciones moleculares, que pueden determinarse espectroscópicamente .
La siguiente ecuación se puede utilizar para trazar el cambio de entropía en un diagrama para un gas ideal :
Hay dos comentarios aquí:
No hay una respuesta inequívoca a esta pregunta por la sencilla razón de que hay muchas entropías diferentes: el concepto de entropía se usa en varias disciplinas científicas: termodinámica, física estadística, teoría de la información, etc. Pero tampoco hay uniformidad dentro de cada una de las disciplinas enumeradas: en la teoría de la información, se considera la entropía de Shannon , la entropía de Renyi , la entropía de Chisar , la entropía de Havrd-Charwat-Daroshi [103] ; la física estadística opera con entropías de Boltzmann, Gibbs , Tsallis ; Hay varias definiciones de entropía termodinámica. La definición significativa de una entropía particular depende de la axiomática del sistema de construcción/exposición que utiliza esta entropía. Por esta razón, no existe una definición universal de entropía termodinámica, ya que para diferentes sistemas axiomáticos de termodinámica, la respuesta a la pregunta planteada en el título será diferente.
Los estudiantes que comienzan a estudiar termodinámica a menudo se quejan de la incomprensibilidad de la entropía asociada con la falta de claridad (la figura ilustra la relatividad de las ideas de las personas sobre la claridad, la comprensibilidad y la simplicidad de los sistemas termodinámicos [K 1] ).
Para describir los fenómenos térmicos en física, se introducen nuevas cantidades físicas complementarias (mutuamente complementarias) - temperatura y entropía - definiciones significativas para las cuales no se dan ni en mecánica ni en electrodinámica. En la termodinámica de Clausius-Carathéodory, la entropía se presenta como la energía interna reducida de un sistema isotérmico, es decir, la diferencia de entropía es igual al calor reducido del proceso isotérmico.
En la termodinámica de Gibbs y en el sistema de A. A. Gukhman, la entropía es un concepto básico indefinido; tal es la respuesta significativa a la pregunta que se está considerando en estos sistemas [K 2] . En la axiomática termodinámica de A. A. Gukhman [105] [106] [107] [108] [109] [110] y la termodinámica racional en la interpretación de P. A. Zhilin [65] [K 3] , tanto la temperatura como la entropía se introducen como indefinidas variables base, irreductibles a otras más simples [K 4] . Una adición explicativa a la definición de entropía según Guchman explica que la entropía es la coordenada del estado en interacción térmica (intercambio de calor), que se expresa en la transferencia de entropía de un objeto a otro [112] .
En la termodinámica racional, en la interpretación de la escuela de Truesdell , se utiliza como variable térmica básica la temperatura , es decir, una magnitud física familiar y por ello comprensible para todos. La entropía se introduce como una útil función auxiliar de energía y temperatura [113] :
pero, en contraste con otra función de energía y temperatura, la capacidad calorífica [114]
la fórmula que sirve como definición de entropía no incluye una derivada, sino una integral. Una adición explicativa a la respuesta, adecuada para casi [K 5] para cualquier forma de presentar la termodinámica, establece que la entropía es necesaria para construir el aparato matemático de la termodinámica y, por lo tanto, involucra a la termodinámica en la resolución de cualquier problema científico o práctico, explícita o implícitamente. , implica el uso de la entropía. El beneficio que trae a la gente el recurrir a la termodinámica es el beneficio de introducir la entropía en el aparato conceptual de la ciencia. Además de lo anterior, podemos hacer una analogía con la capacidad calorífica: si para los procesos no isotérmicos de calentar hielo, agua líquida y vapor, los costos de energía son iguales al producto de la capacidad calorífica y la diferencia de temperatura, entonces para los procesos isotérmicos de fusión y ebullición, los costos de energía son iguales al producto de la temperatura y la diferencia de entropía.
Comprender la entropía y su significado para la termodinámica significa que es necesario conocer el origen de esta cantidad, comprender sus conexiones con otras variables termodinámicas y poder aplicar la entropía en la práctica [K 6] [104] .