Statistische Definition der Entropie

[Weiter] | [Zurück] | [Inhaltsverzeichnis] | [Suchen]
(Inhalt dieser Seite nicht nach Vorlesung)

STATISTISCHE DEFINITION DER ENTROPIE

Betrachtet wird ein Gesamtsystem, welches aus N gleichartigen Teilsystemen bestehen. Diese können sich in den Energiezuständen 1..n befinden. Auch wenn die Gesamtenergie vorgegeben ist, so gibt es noch viele verschiedene Möglichkeiten für die Verteilung dieser Energie auf die einzelnen Teilsysteme.

Zum Beispiel könnte eines der Systeme die volle Energie des gesamten Systems aufnehmen, so daß die restlichen im Grundzustand vorliegen (wobei hier angenommen würde, daß diese Grundzustandsenergie gleich Null ist). Es gibt N quantenmechanische Zustände des Gesamtsystems, die solch einer Situation entsprechen, denn jedes der N Teilsysteme kann sich in dem angeregten Zustand befinden.

Allgemeiner kann man einen ''Makrozustand'' betrachten, in dem jeweils Teilsysteme im Energie-Eigenzustand i sind. Die Anzahl der zugehörigen ''Mikrozustände'' (quantenmechanische Zustände des Gesamtsystems) beträgt dann

Das sieht man so: Falls jedes der Systeme in einem von N verschiedenen Zuständen ist, so gibt es genau Möglichkeiten, diese in irgendeiner Reihenfolge auf die Systeme zu verteilen. Wenn jedoch die ersten Zustände gleich sind (), so müssen alle Permutationen, die sich nur in der Reihenfolge dieser Zustände unterscheiden, zusammengefaßt werden. Mit anderen Worten: Die ursprüngliche Zählung hat die Gesamtzahl der Möglichkeiten um den Faktor zu groß angegeben, entsprechend der Anzahl der Permutationen dieser Zustände untereinander.

Wenn angenommen werden darf, daß das Gesamtsystem durch eine mikrokanonische Verteilung beschrieben wird, so ist jeder quantenmechanische Zustand innerhalb eines kleinen Energieintervalls gleich wahrscheinlich. Das bezieht sich auf die Zustände des Gesamtsystems, welche den ''Mikrozuständen'' der obigen Bezeichnungsweise entsprechen. Die Anzahl der Mikrozustände ist in diesem Fall direkt proportional zum statistischen Gewicht des zugehörigen Makrozustandes, welcher gegeben ist durch Angabe von .

Wenn man den Makrozustand mit dem größten statistischen Gewicht herausfindet, wird man Mittelwerte über die mikrokanonische Verteilung des Gesamtsystems annähern können durch Mittelwerte bezgl. dieses Makrozustandes.

Zu maximieren ist also die Größe

unter der Nebenbedingung konstanter Energie (das Verfahren kann analog für andere Arten von Nebenbedingungen verwendet werden).

Es ist günstiger, den Logarithmus dieses Zustandes zu maximieren, weil man dann die Stirling-Näherung (für große ) verwenden kann. Außerdem ergibt sich auf diese Weise eine additive Größe (siehe unten):

Wenn man die Häufigkeiten der einzelnen Zustände als

definiert, dann gilt:

Durch Einsetzen in die obige Formel erkennt man, daß die Größe

zu maximieren ist. Der konstante Vorfaktor durfte dabei weggelassen werden. Dieses Verfahren wird benutzt werden, um spezielle statistische Verteilungen (kanonische und großkanonische) abzuleiten.

Man definiert

als die statistische Entropie einer gegebenen Verteilung. Die (willkürlich festgelegte) multiplikative Konstante k wird als Boltzmann-Konstante bezeichnet und hat den Wert

Im Rahmen des Dichtematrixformalismus kann man

schreiben. Dies ist offenbar richtig in der speziellen Basis, in welcher Diagonalgestalt hat. Damit stimmt es auch in jeder anderen Basis, weil die Spur basisunabhängig ist.

In der klassischen statistischen Mechanik ist die Entropie folgendermaßen definiert:

Dabei ist noch zu beachten, daß man einen Term zu S addieren muß, wenn es sich um ein System von N identischen Teilchen handelt (vgl. auch ''klassische Zustandssumme''). Dies liegt daran, daß in der Quantenmechanik die Zahl der Zustände des Systems (z.B. in einem gegebenen Energieintervall) gegenüber dem Fall unterscheidbarer Teilchen um den Faktor reduziert ist, weil nur korrekt symmetrisierte / antisymmetrisierte Mehrteilchenzustände zählen (vgl. ''Fermionen und Bosonen''). Falls man die Entropie durch Übergang aus der quantenmechanischen Definition ableitet, so ergibt sich ein weiterer Term , wobei n die Gesamtzahl der Koordinaten und h das Planck'sche Wirkungsquantum bezeichnet. (vgl. Klassische statistische Mechanik des idealen Gases - das Wirkungsquantum steht dort in der thermischen de Broglie Wellenlänge) .

Eigenschaften der Entropie

  • Die Entropie ist nichtnegativ:

  • Zustände mit statistischem Gewicht Null tragen nicht zur Entropie bei:

  • Wenn die Verteilung auf einen Zustand konzentriert ist, dann ist die Entropie gleich Null:

  • wird maximal für die Gleichverteilung, d.h. für .

  • Die Entropie eines Gesamtsystems mit den Zuständen ist gleich der Summe der Entropien der Teilsysteme, wenn diese unkorreliert sind, d.h. wenn gilt: . Dabei sollen die Verteilungen der Teilsysteme darstellen.

    Beweis von (4):

    Man geht aus von der Beziehung :

    Hierbei wurde zuerst mit multipliziert und dann über summiert (nach zusätzlicher Multiplikation mit ).

    Beweis von (5):

    Bem. zu (5): Wenn die Teilsysteme korreliert sind, so ist die Gesamtentropie immer kleiner als die Summe der Teilentropien.

    Die Eigenschaften (2), (4) und (5) legen die Funktion S bis auf eine multiplikative Konstante fest.


    [Weiter] Das kanonische Ensemble
    [Zurück] Das Mikrokanonische Ensemble

    [Inhaltsverzeichnis] | [Suchen] | [Kommentar]

    Online-Skript Thermodynamik und Statistische Physik
    (Inhalt dieser Seite nicht nach Vorlesung)