Benutzer-Werkzeuge

Webseiten-Werkzeuge


de:lehre:entropie:index

Entropie in der statistischen Thermodynamik

Titel
Entropie in der statistischen Thermodynamik
Format
Vortrag
Umfang
20 min
Themen
Konfigurationen, Gewichte und Boltzmann-Verteilung
Molekulare Zustandssumme
Statistische Definition der Entropie
Entropie und Shannon-Information
Folien
PDF
Glossar
PDF – Zusammenfassung wichtiger Begriffe
Artikel
PDF – schriftliche, ausführlichere Abhandlung des Themas


Inhalt

Die statistische Thermodynamik ist das entscheidende Bindeglied zwischen mikroskopischer und makroskopischer Welt, Quantenmechanik und klassischer, phänomenologischer Thermodynamik. Hier wird mit der Entropie nur ein einzelner Aspekt betrachtet. Ausgangspunkt ist der Vergleich der Definitionen der Entropie nach Clausius (klassische Thermodynamik) und Boltzmann (statistische Thermodynamik). Von dort ausgehend werden die relevanten Konzepte wie Konfigurationen, Gewichte, Boltzmannverteilung und molekulare Zustandssumme eingeführt. Die Kernthese ist dabei, dass Boltzmanns statistische bzw. wahrscheinlichkeitstheoretische Formulierung der Entropie wesentlich zu deren Verständnis beiträgt. Abschließend wird mit einem kurzen Ausblick auf Shannons Informationstheorie und seiner Definition der Information, die mathematisch äquivalent zu Boltzmanns Definition der Entropie ist, eine Verbindung zwischen Entropie und Informationsgehalt eines Systems hergestellt.

Zentrale Aspekte

  • Die Entropie gibt die Richtung von Prozessen vor
    und führt das Konzept der Irreversibilität (und Zeit) ein.
  • Die statistische Thermodynamik verknüpft mikroskopische
    und makroskopische Welt: Quantenmechanik und Thermodynamik.
  • Die Boltzmannverteilung gibt die wahrscheinlichste
    und weitaus dominierende Konfiguration eines Systems an.
  • Boltzmanns statistische Formulierung der Entropie
    macht diese Größe anschaulich(er) und greifbar(er).
  • Shannons Informationstheorie verknüpft die Entropie
    mit der über ein System verfügbaren Information.

Fragen zum Verständnis

Die nachfolgenden Fragen sollten sich mit den im Vortrag vermittelten Inhalten beantworten lassen und dienen der eigenständigen Nacharbeit bzw. Beschäftigung mit der Thematik.

  • Was ist die grundlegende Bedeutung der Entropie für den Ablauf von Prozessen?
  • Welche zwei unabhängigen Begründungen gibt es für die Verwendung des Logarithmus in Boltzmanns Formulierung der Entropie?
  • Welche wichtigen Einschränkungen sind für die Herleitung der Boltzmann-Verteilung essentiell? Was drückt die Boltzmann-Verteilung aus?
  • Was besagt die molekulare Zustandssumme in einem Satz ausgedrückt?
  • Was ist die Bedeutung der molekularen Zustandssumme? Welchem Konzept aus der Quantenmechanik kommt eine ähnliche Bedeutung (für die Quantenmechanik) zu?
  • Was ist der niedrigste Wert, den die molekulare Zustandssumme annehmen kann? Was im allgemeinen Fall ihr größter Wert? Wie sieht das in einem Zweiniveau-System aus?
  • Wie verhalten sich die Besetzungszahlen für beliebig hohe Temperaturen? Was bedeutet das für die Besetzungsinversion, wie sie z.B. für die Funktion eines Lasers konstituierend ist, in einem System im thermischen Gleichgewicht?

Weiterführende Literatur

Eine kommentierte und handverlesene Liste mit weiterführender Literatur zum Thema. Die Auswahl ist zwangsläufig subjektiv.

Die Darstellung folgt in weiten Teilen jener in [Atkins, 2013Atkins, Peter W.; de Paula, Julio (2013): Physikalische Chemie, Wiley-VCH, Weinheim] (Kap. 15). Boltzmanns Originalarbeit ist [Boltzmann, 1877Boltzmann, Ludwig (1877): Über die Beziehung zwischen dem zweiten Hauptsatz der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung respektive den Sätzen über das Wärmegleichgewicht, Sitzungsberichte der Mathematisch-Naturwissenschaftlichen Classe der Kaiserlichen Akademie der Wissenschaften. II. Abtheilung 76:373-435], die Gleichung wurde in ihrer uns heute bekannten Form von Max Planck aufgestellt [Planck, 1901Planck, Max (1901): Über das Gesetz der Energieverteilung im Normalspectrum, Annalen der Physik 4:553-563]. Für die Einführung des Begriffs „Entropie“ durch Clausius vgl. [Clausius, 1867Clausius, Rudolf (1867): Über den zweiten Hauptsatz der mechanischen Wärmetheorie. Ein Vortrag, gehalten in einer allgemeinen Sitzung der 31. Versammlung deutscher Naturforscher und Aerzte zu Frankfurt a. M. am 23. September 1867, Friedrich Vieweg und Sohn, Braunschweig]

Für den Vergleich zwischen Boltzmann-Entropie und Shannon-Information vgl. u.a. [Glaser, 1996Glaser, Roland (1996): Biophysik, Gustav Fischer, Jena] (Kap. 2.3). Dort findet sich ebenfalls die erwähnte mathematische Begründung für die Verwendung des Logarithmus. Die Originalarbeit von Shannon, in der er seine Formulierung der Information bzw. Entropie einführt, ist [Shannon, 1945Shannon, Claude E. (1945): A mathematical theory of communication, The Bell System Technical Journal 27:379-423].

  • Atkins, Peter W.; de Paula, Julio (2013): Physikalische Chemie, Wiley-VCH, Weinheim
  • Boltzmann, Ludwig (1877): Über die Beziehung zwischen dem zweiten Hauptsatz der mechanischen Wärmetheorie und der Wahrscheinlichkeitsrechnung respektive den Sätzen über das Wärmegleichgewicht, Sitzungsberichte der Mathematisch-Naturwissenschaftlichen Classe der Kaiserlichen Akademie der Wissenschaften. II. Abtheilung 76:373-435
  • Clausius, Rudolf (1867): Über den zweiten Hauptsatz der mechanischen Wärmetheorie. Ein Vortrag, gehalten in einer allgemeinen Sitzung der 31. Versammlung deutscher Naturforscher und Aerzte zu Frankfurt a. M. am 23. September 1867, Friedrich Vieweg und Sohn, Braunschweig
  • Glaser, Roland (1996): Biophysik, Gustav Fischer, Jena
  • Planck, Max (1901): Über das Gesetz der Energieverteilung im Normalspectrum, Annalen der Physik 4:553-563
  • Shannon, Claude E. (1945): A mathematical theory of communication, The Bell System Technical Journal 27:379-423
de/lehre/entropie/index.txt · Zuletzt geändert: 2024/02/04 22:15 von till