Verallgemeinerte kanonische Verteilung: Difference between revisions
Line 92: | Line 92: | ||
<math>I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\rho (x)\ln \rho (x)}=!=Minimum</math> | :<math>I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\rho (x)\ln \rho (x)}=!=Minimum</math> | ||
Line 98: | Line 98: | ||
<math>\begin{align} | :<math>\begin{align} | ||
& \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}=1 \\ | & \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}=1 \\ | ||
& \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}{{M}^{n}}(x)=\left\langle {{M}^{n}} \right\rangle \\ | & \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}{{M}^{n}}(x)=\left\langle {{M}^{n}} \right\rangle \\ | ||
Line 106: | Line 106: | ||
Durchführung einer Funktionalvariation: | Durchführung einer Funktionalvariation: | ||
<math>\delta \rho (x)</math> | :<math>\delta \rho (x)</math> | ||
<math>\begin{align} | |||
:<math>\begin{align} | |||
& \delta I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\left( \ln \rho (x)+1 \right)\delta \rho (x)}=0 \\ | & \delta I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\left( \ln \rho (x)+1 \right)\delta \rho (x)}=0 \\ | ||
& \Rightarrow \int_{{}}^{{}}{{{d}^{d}}x\delta \rho (x)}=0 \\ | & \Rightarrow \int_{{}}^{{}}{{{d}^{d}}x\delta \rho (x)}=0 \\ | ||
Line 120: | Line 120: | ||
'''Vergleiche: A. Katz, Principles of Statistial Mechanics''' | '''Vergleiche: A. Katz, Principles of Statistial Mechanics''' | ||
{{AnMS|Siehe auch {{Quelle| | |||
{{AnMS|Siehe auch {{Quelle|St7B|5.4.13|Kap 5.4.3 S46}}}} | |||
==Eigenschaften der verallgemeinerten kanonischen Verteilung== | ==Eigenschaften der verallgemeinerten kanonischen Verteilung== |
Revision as of 15:01, 1 September 2010
65px|Kein GFDL | Der Artikel Verallgemeinerte kanonische Verteilung basiert auf der Vorlesungsmitschrift von Franz- Josef Schmitt des 1.Kapitels (Abschnitt 3) der Thermodynamikvorlesung von Prof. Dr. E. Schöll, PhD. |
|}}
{{#set:Urheber=Prof. Dr. E. Schöll, PhD|Inhaltstyp=Script|Kapitel=1|Abschnitt=3}} Kategorie:Thermodynamik __SHOWFACTBOX__
Motivation
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte von Mikroobservablen M(x), interpretiert als Zufallsvariable.
Rückschlüsse von auf die Wahrscheinlichkeitsverteilung
Methode
Vorurteilsfreie Schätzung ( Jaynes , 1957):
unbiased guess; Prinzip des maximalen Nichtwissens:
- Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
- ( Minimum der Shannon- Information
liefert Gleichverteilung
- Jetzt: Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen:
Annahme:
hat gleiche a-priori- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse
gilt Gleichverteilung über den
Informationstheoretisches Prinzip
(nach (Jaynes 1922-1998))
Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die minimale Information enthält:
Nebenbed.:
Es gilt: von den N Variationen sind nur N-m-1 unabhängig voneinander !
Anleitung: Wähle so, dass die Koeffizienten von ´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar !
Somit:
Vorsicht: Auch Summe über (Einsteinsche Summenkonvention!)
Die Lagrange- Multiplikatoren sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt !
Kontinuierliche Ereignismenge
unter der Nebenbedingung
Durchführung einer Funktionalvariation:
Vergleiche: A. Katz, Principles of Statistial Mechanics
ANMERKUNG Schubotz: Siehe auch [1] |
Eigenschaften der verallgemeinerten kanonischen Verteilung
hier: noch rein informationstheoretisch,
später: wichtige Anwendungen in der Thermodynamik
Legendre- Transformation{{#set:Fachbegriff=Legendre- Transformation|Index=Legendre- Transformation}}:
Aus kann die Bahn noch nicht rekonstruiert werden, jedoch aus
mit t=t(M):
Jedenfalls:
heißt legendre- Transformierte von
.
Anwendung auf die verallgemeinerte kanonische Verteilung:
Normierung:
Also gilt:
und
sind durch
vollständig parametrisiert.
Nebenbemerkung
bzw.
wirkt auf dem Raum der Zufallsvariablen
(diskret) bzw.
sind Parameter.
sind Erwartungswerte
Beispiel:
( Phasenraumelement)
mit als Phasenraum der kanonisch konjugierten Variablen
mikrokanonisch Verteilungsfunktion
Shannon- Information:
Aus
Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren:
Variable
neue Variable
Legendre- Transformierte von
!
Es folgt:
wegen:
Zusammengefasst:
Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung !!
Betachte Variation:
dann:
Informationsgewinn:
Wir können die variierten Funktionen für kleine Variationen
entwickeln:
Vergleiche oben
also folgt:
Definiere Suszeptibilitätsmatrix:
Diese Matrix beschreibt die Änderung von
bzw.:
In Matrixschreibweise:
Wegen
Somit:
ist symmetrisch
Aus
folgt:
Also: negativ- semidefinite quadratisceh Form:
Nebenbemerkung:
Also sind
und
konvex !
Zusammenhang mit der Korrelationsmatrix
ist Korrelationsmatrix ( siehe oben)
2. Kumulante
mit Kumulantenerzeugender
Suszeptibilität !
Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !!
Also:
Fluktuations/ Dissipations- Theorem:
Fluktuationen: Zufällige Schwankungen um den Mittelwert
Dissipation: Systematische Änderung der Mittelwerte !
Korrektur einer Verteilung durch Zusatzinformationen
Sei
die Verteilung, die
unter Kenntnis der Nebenbedingungen
minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !)
Jetzt:
Zusatzinformationen ( zusätzliche Mittelwerte beobachtet):
Prinzip der vorurteilsfreien Schätzung
Suche Minimum des Informationsgewinns
unter dieser Nebenbedingung !!
Also:
mit neuen Lagrange- Multiplikatoren
Mit
folgt:
Da nun die Mittelwerte
nicht durch die Zusatzinfo geändert werden muss gelten:
da diese Mittelwerte nicht durch die Zusatzinfo geändert werden !
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !
Siehe auch
- ↑ Brandes,T, Thermodynamik und Statistische Physik, Vorlesung, TU-Berlin, Wintersemester 2006/2007, Gleichung 5.4.13 (Kap 5.4.3 S46) {{#set:St7B=5.4.13}}