La entropía es un parámetro termodinámico que mide el grado de organización de un sistema. La termodinámica estudia los procesos macroscópicos en los que la transferencia de calor se traduce en otras formas de energía, y cómo se produce trabajo. La entropía, que se representa con el símbolo S, mide los microestados compatibles con un macroestado termodinámico en equilibrio. El término entropía deriva del griego y significa transformación. Su valor crece en procesos con transferencia de energía, y se dice que la entropía describe lo irreversible de un sistema termodinámico.
En un proceso isotérmico, en el que no hay cambio de temperatura, la variación en la entropía entre dos estados termodinámicos en equilibrio, DS = S2 – S1, es igual la variación de calor entre ambos estados DQ = Q2 – Q1 dividido entre la temperatura absoluta T.
DS = DQ/T
El concepto de entropía vino de la mente de Rudolf Clausius en la década de 1850, cuando intentó explicar por qué siempre se pierde energía en la conversión de energía térmica de los procesos termodinámicos. Clausius estableció el concepto de sistema termodinámico y postuló que en todo proceso irreversible se disipa una cierta cantidad de energía. Posteriormente, entre 1890 y 1900, Ludwing Boltzmann, junto a otros físicos, desarrolló lo que hoy se conoce como física estadística, redefiniendo la entropía al asociarla con los microestados posibles de un sistema mediante la siguiente ecuación.
S = kB ln(W)
W representa el número de microestados posibles de un sistema; su logaritmo natural multiplicado por la constante de Boltzmann kB da el valor de la entropía S de un sistema termodinámico. El valor de la constante de Boltzmann es 1,38065 × 10−23 J/K.
La fórmula anterior expresaba la variación de la entropía entre dos estados de equilibrio de un sistema termodinámico y no definía un valor de entropía de un sistema. En cambio, esta fórmula asigna un valor absoluto a la entropía de un sistema termodinámico. La interpretación no siempre resulta clara, pero se puede decir que la entropía mide el desorden de los microcomponentes de un macrosistema termodinámico; a su vez, ese desorden o agitación se relaciona con la temperatura del sistema.
La termodinámica se sustenta en cuatro principios:
- El principio cero establece que si dos sistemas están en equilibrio térmico con un tercer sistema, también lo estarán entre sí.
- De acuerdo al primer principio, un sistema cerrado puede intercambiar energía con su entorno en forma de trabajo y de calor, acumulando energía en forma de energía interna.
- El segundo principio postula que la entropía del universo siempre tiende a aumentar. Un postulado alternativo enunciado por Clausius establece que no es posible un proceso cuyo único resultado sea la transferencia de calor de un cuerpo de menor temperatura a otro de mayor temperatura.
- Por último, el tercer principio de la termodinámica, como lo postuló Walther Nernst, dice que no se puede alcanzar el cero absoluto de temperatura (0 en las escalas de Kelvin o Rankine).
Fuentes
- Brissaud J.B. The meanings of entropy. Entropy, 7(1), 68-96, 2005.
- Cuesta, J.A. La entropía como creadora de orden. Revista Española de Física, 20(4) 13-19, 2006.