Inhaltsverzeichnis
Entropie in der statistischen Thermodynamik
- Titel
- Entropie in der statistischen Thermodynamik
- Format
- Vortrag
- Umfang
- 20 min
- Themen
- Konfigurationen, Gewichte und Boltzmann-Verteilung
- Molekulare Zustandssumme
- Statistische Definition der Entropie
- Entropie und Shannon-Information
- Folien
- Glossar
- PDF – Zusammenfassung wichtiger Begriffe
- Artikel
- PDF – schriftliche, ausführlichere Abhandlung des Themas
Inhalt
Die statistische Thermodynamik ist das entscheidende Bindeglied zwischen mikroskopischer und makroskopischer Welt, Quantenmechanik und klassischer, phänomenologischer Thermodynamik. Hier wird mit der Entropie nur ein einzelner Aspekt betrachtet. Ausgangspunkt ist der Vergleich der Definitionen der Entropie nach Clausius (klassische Thermodynamik) und Boltzmann (statistische Thermodynamik). Von dort ausgehend werden die relevanten Konzepte wie Konfigurationen, Gewichte, Boltzmannverteilung und molekulare Zustandssumme eingeführt. Die Kernthese ist dabei, dass Boltzmanns statistische bzw. wahrscheinlichkeitstheoretische Formulierung der Entropie wesentlich zu deren Verständnis beiträgt. Abschließend wird mit einem kurzen Ausblick auf Shannons Informationstheorie und seiner Definition der Information, die mathematisch äquivalent zu Boltzmanns Definition der Entropie ist, eine Verbindung zwischen Entropie und Informationsgehalt eines Systems hergestellt.
Zentrale Aspekte
- Die Entropie gibt die Richtung von Prozessen vor
und führt das Konzept der Irreversibilität (und Zeit) ein. - Die statistische Thermodynamik verknüpft mikroskopische
und makroskopische Welt: Quantenmechanik und Thermodynamik. - Die Boltzmannverteilung gibt die wahrscheinlichste
und weitaus dominierende Konfiguration eines Systems an. - Boltzmanns statistische Formulierung der Entropie
macht diese Größe anschaulich(er) und greifbar(er). - Shannons Informationstheorie verknüpft die Entropie
mit der über ein System verfügbaren Information.
Fragen zum Verständnis
Die nachfolgenden Fragen sollten sich mit den im Vortrag vermittelten Inhalten beantworten lassen und dienen der eigenständigen Nacharbeit bzw. Beschäftigung mit der Thematik.
- Was ist die grundlegende Bedeutung der Entropie für den Ablauf von Prozessen?
- Welche zwei unabhängigen Begründungen gibt es für die Verwendung des Logarithmus in Boltzmanns Formulierung der Entropie?
- Welche wichtigen Einschränkungen sind für die Herleitung der Boltzmann-Verteilung essentiell? Was drückt die Boltzmann-Verteilung aus?
- Was besagt die molekulare Zustandssumme in einem Satz ausgedrückt?
- Was ist die Bedeutung der molekularen Zustandssumme? Welchem Konzept aus der Quantenmechanik kommt eine ähnliche Bedeutung (für die Quantenmechanik) zu?
- Was ist der niedrigste Wert, den die molekulare Zustandssumme annehmen kann? Was im allgemeinen Fall ihr größter Wert? Wie sieht das in einem Zweiniveau-System aus?
- Wie verhalten sich die Besetzungszahlen für beliebig hohe Temperaturen? Was bedeutet das für die Besetzungsinversion, wie sie z.B. für die Funktion eines Lasers konstituierend ist, in einem System im thermischen Gleichgewicht?
Weiterführende Literatur
Eine kommentierte und handverlesene Liste mit weiterführender Literatur zum Thema. Die Auswahl ist zwangsläufig subjektiv.
Die Darstellung folgt in weiten Teilen jener in [Atkins, 2013Atkins, Peter W.; de Paula, Julio (2013): Physikalische Chemie, Wiley-VCH, Weinheim] (Kap. 15). Boltzmanns Originalarbeit ist [Boltzmann, 1877Boltzmann, Ludwig (1877): Über die Beziehung zwischen dem zweiten Hauptsatz der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung respektive den Sätzen über das Wärmegleichgewicht, SMNCKAWII 76:373-435], die Gleichung wurde in ihrer uns heute bekannten Form von Max Planck aufgestellt [Planck, 1901Planck, Max (1901): Über das Gesetz der Energieverteilung im Normalspectrum, Ann. Physik 4:553-563]. Für die Einführung des Begriffs „Entropie“ durch Clausius vgl. [Clausius, 1867Clausius, Rudolf (1867): Über den zweiten Hauptsatz der mechanischen Wärmetheorie. Ein Vortrag, gehalten in einer allgemeinen Sitzung der 31. Versammlung deutscher Naturforscher und Aerzte zu Frankfurt a. M. am 23. September 1867, Friedrich Vieweg und Sohn, Braunschweig]
Für den Vergleich zwischen Boltzmann-Entropie und Shannon-Information vgl. u.a. [Glaser, 1996Glaser, Roland (1996): Biophysik, Gustav Fischer, Jena] (Kap. 2.3). Dort findet sich ebenfalls die erwähnte mathematische Begründung für die Verwendung des Logarithmus. Die Originalarbeit von Shannon, in der er seine Formulierung der Information bzw. Entropie einführt, ist [Shannon, 1945Shannon, Claude E. (1945): A mathematical theory of communication, Bell Syst. Tech. J. 27:379-423].
- Atkins, Peter W.; de Paula, Julio (2013): Physikalische Chemie, Wiley-VCH, Weinheim
- Boltzmann, Ludwig (1877): Über die Beziehung zwischen dem zweiten Hauptsatz der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung respektive den Sätzen über das Wärmegleichgewicht, SMNCKAWII 76:373-435
- Clausius, Rudolf (1867): Über den zweiten Hauptsatz der mechanischen Wärmetheorie. Ein Vortrag, gehalten in einer allgemeinen Sitzung der 31. Versammlung deutscher Naturforscher und Aerzte zu Frankfurt a. M. am 23. September 1867, Friedrich Vieweg und Sohn, Braunschweig
- Glaser, Roland (1996): Biophysik, Gustav Fischer, Jena
- Planck, Max (1901): Über das Gesetz der Energieverteilung im Normalspectrum, Ann. Physik 4:553-563
- Shannon, Claude E. (1945): A mathematical theory of communication, Bell Syst. Tech. J. 27:379-423