Entropie ist ein thermodynamischer Parameter, der den Organisationsgrad eines Systems misst. Die Thermodynamik untersucht die makroskopischen Prozesse, bei denen Wärmeübertragung in andere Energieformen umgewandelt wird und wie Arbeit erzeugt wird. Die mit dem Symbol S bezeichnete Entropie misst die Mikrozustände, die mit einem thermodynamischen Makrozustand im Gleichgewicht kompatibel sind. Der Begriff Entropie stammt aus dem Griechischen und bedeutet Transformation. Ihr Wert wächst bei Prozessen mit Energieübertragung, und man sagt, dass Entropie die Irreversibilität eines thermodynamischen Systems beschreibt.
Bei einem isothermen Prozess ohne Temperaturänderung ist die Entropieänderung zwischen zwei thermodynamischen Gleichgewichtszuständen D S = S 2 – S 1 gleich der Wärmeänderung zwischen beiden Zuständen D Q = Q 2 – Q 1 dividiert durch die absolute Temperatur T.
DS = DQ /T
Der Begriff der Entropie stammt von Rudolf Clausius aus den 1850er Jahren, als er zu erklären versuchte, warum bei der Umwandlung von Wärmeenergie in thermodynamischen Prozessen immer Energie verloren geht. Clausius begründete das Konzept eines thermodynamischen Systems und postulierte, dass bei jedem irreversiblen Prozess eine bestimmte Energiemenge dissipiert wird. Später, zwischen 1890 und 1900, entwickelte Ludwing Boltzmann zusammen mit anderen Physikern das, was heute als statistische Physik bekannt ist , und definierte die Entropie neu, indem er sie mit den möglichen Mikrozuständen eines Systems unter Verwendung der folgenden Gleichung in Verbindung brachte.
S = kBln ( W )
W stellt die Anzahl möglicher Mikrozustände eines Systems dar; sein natürlicher Logarithmus multipliziert mit der Boltzmann-Konstante kB ergibt den Wert der Entropie S eines thermodynamischen Systems. Der Wert der Boltzmann-Konstante beträgt 1,38065 × 10 −23 J/K.
Die vorherige Formel drückte die Entropieänderung zwischen zwei Gleichgewichtszuständen eines thermodynamischen Systems aus und definierte keinen Entropiewert für ein System. Stattdessen weist diese Formel der Entropie eines thermodynamischen Systems einen absoluten Wert zu. Die Interpretation ist nicht immer eindeutig, aber man kann sagen, dass die Entropie die Unordnung der Mikrokomponenten eines thermodynamischen Makrosystems misst; diese Unordnung oder Bewegung hängt wiederum mit der Temperatur des Systems zusammen.
Die Thermodynamik basiert auf vier Prinzipien:
- Das Nullprinzip besagt, dass zwei Systeme, die mit einem dritten System im thermischen Gleichgewicht sind, auch miteinander im thermischen Gleichgewicht stehen.
- Nach dem ersten Prinzip kann ein geschlossenes System mit seiner Umgebung Energie in Form von Arbeit und Wärme austauschen und Energie in Form von innerer Energie ansammeln.
- Der zweite Hauptsatz besagt, dass die Entropie des Universums immer dazu tendiert, zuzunehmen. Ein alternatives Postulat von Clausius besagt, dass ein Prozess, dessen einziges Ergebnis die Übertragung von Wärme von einem Körper mit niedrigerer Temperatur auf einen anderen mit höherer Temperatur ist, nicht möglich ist.
- Schließlich besagt der dritte Hauptsatz der Thermodynamik, wie er von Walther Nernst postuliert wurde, dass die absolute Nulltemperatur nicht erreicht werden kann (0 auf der Kelvin- oder Rankine-Skala).
Quellen
- Brissaud JB Die Bedeutung der Entropie . Entropie, 7(1), 68-96, 2005.
- Cuesta, JA Entropie als Ordnungsstifter . Spanische Zeitschrift für Physik, 20(4) 13-19, 2006.