Verallgemeinerte kanonische Verteilung: Difference between revisions
No edit summary  | 
				No edit summary  | 
				||
| Line 1: | Line 1: | ||
<noinclude>{{Scripthinweis|Thermodynamik|1|3}}</noinclude>  | <noinclude>{{Scripthinweis|Thermodynamik|1|3}}</noinclude>  | ||
== Motivation: ==  | |||
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte    | Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte    | ||
<math>\left\langle M(x) \right\rangle </math>  | <math>\left\langle M(x) \right\rangle </math>  | ||
| Line 14: | Line 12: | ||
== Methode: ==  | |||
Vorurteilsfreie Schätzung ( Jaynes , 1957):  | Vorurteilsfreie Schätzung ( Jaynes , 1957):  | ||
| Line 49: | Line 47: | ||
.  | .  | ||
== Informationstheoretisches Prinzip ( Jaynes) ==  | |||
Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information '''enthält:  | Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information '''enthält:  | ||
| Line 69: | Line 67: | ||
== Variation: ==  | |||
<math>\delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}</math>  | <math>\delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}</math>  | ||
| Line 98: | Line 96: | ||
== Anleitung ==  | |||
Wähle    | Wähle    | ||
<math>\Psi ,{{\lambda }_{n}}</math>  | <math>\Psi ,{{\lambda }_{n}}</math>  | ||
| Line 117: | Line 115: | ||
== Die verallgemeinerte kanonische Verteilung ==  | |||
Die Lagrange- Multiplikatoren  | Die Lagrange- Multiplikatoren  | ||
| Line 155: | Line 153: | ||
'''Vergleiche: A. Katz, Principles of Statistial Mechanics'''  | '''Vergleiche: A. Katz, Principles of Statistial Mechanics''' {{AnMS|Siehe auch {{Quelle|ST7|5.4.13|Kap 5.4.3 S46}}}}  | ||
Eigenschaften der verallgemeinerten kanonischen Verteilung  | Eigenschaften der verallgemeinerten kanonischen Verteilung  | ||
| Line 163: | Line 161: | ||
später: wichtige Anwendungen in der Thermodynamik  | später: wichtige Anwendungen in der Thermodynamik  | ||
== Legendre- Transformation: ==  | |||
Sei    | Sei    | ||
| Line 218: | Line 216: | ||
.  | .  | ||
== Anwendung auf die verallgemeinerte kanonische Verteilung: ==  | |||
<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>  | <math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>  | ||
| Line 492: | Line 490: | ||
konvex !  | konvex !  | ||
== Zusammenhang mit der Korrelationsmatrix ==  | |||
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math>  | <math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math>  | ||
| Line 531: | Line 529: | ||
Dissipation: Systematische Änderung der Mittelwerte !  | Dissipation: Systematische Änderung der Mittelwerte !  | ||
== Korrektur einer Verteilung durch Zusatzinformationen ==  | |||
Sei  | Sei  | ||
| Line 563: | Line 561: | ||
== Prinzip der vorurteilsfreien Schätzung ==  | |||
Suche Minimum des Informationsgewinns  | Suche Minimum des Informationsgewinns  | ||
| Line 616: | Line 614: | ||
<math>\begin{align}  | <math>\begin{align}  | ||
   & K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\    |    & K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\  | ||
  & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\    |   & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\    | ||
  & keine\ddot{A}nderung \\    |   & keine\ddot{A}nderung \\    | ||
| Line 634: | Line 632: | ||
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !  | Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !  | ||
==Siehe auch==  | |||
< references />  | |||
Revision as of 13:42, 1 September 2010
| 65px|Kein GFDL | Der Artikel Verallgemeinerte kanonische Verteilung basiert auf der Vorlesungsmitschrift von Franz- Josef Schmitt des 1.Kapitels (Abschnitt 3) der Thermodynamikvorlesung von Prof. Dr. E. Schöll, PhD. | 
|}}
{{#set:Urheber=Prof. Dr. E. Schöll, PhD|Inhaltstyp=Script|Kapitel=1|Abschnitt=3}} Kategorie:Thermodynamik __SHOWFACTBOX__
Motivation:
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte von Mikroobservablen M(x), interpretiert als Zufallsvariable.
Rückschlüsse von auf die Wahrscheinlichkeitsverteilung
Methode:
Vorurteilsfreie Schätzung ( Jaynes , 1957):
unbiased guess; Prinzip des maximalen Nichtwissens:
- Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
 - ( Minimum der Shannon- Information
 
liefert Gleichverteilung
- Jetzt: Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen:
 
Annahme:
hat gleiche a-priori- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse
gilt Gleichverteilung über den
Informationstheoretisches Prinzip ( Jaynes)
Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die minimale Information enthält:
Also:
Nebenbed.:
Variation:
Es gilt: von den  N Variationen 
sind nur N-m-1 unabhängig voneinander !
Lagrange- Multiplikator
Lagrange- Multiplikator
Anleitung
Wähle so, dass die Koeffizienten von ´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar !
Somit:
Vorsicht: Auch Summe über n ( Einsteinsche Summenkonvention !)
Die verallgemeinerte kanonische Verteilung
Die Lagrange- Multiplikatoren
sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt !
Kontinuierliche Ereignismenge !
unter der Nebenbedingung
Durchführung einer Funktionalvariation: 
Vergleiche: A. Katz, Principles of Statistial Mechanics 
| ANMERKUNG Schubotz: Siehe auch [1] | 
Eigenschaften der verallgemeinerten kanonischen Verteilung
hier: noch rein informationstheoretisch,
später: wichtige Anwendungen in der Thermodynamik
Legendre- Transformation:
die Geschwindigkeit.
noch nicht rekonstruiert werden, jedoch aus
mit t=t(M):
Jedenfalls:
heißt legendre- Transformierte von 
.
Anwendung auf die verallgemeinerte kanonische Verteilung:
Normierung:
Also gilt:
und
sind durch
vollständig parametrisiert.
Nebenbemerkung
bzw.
wirkt auf dem Raum der Zufallsvariablen
(diskret) bzw.
sind Parameter.
sind Erwartungswerte
Beispiel:
( Phasenraumelement)
mit als Phasenraum der kanonisch konjugierten Variablen
mikrokanonisch Verteilungsfunktion
Shannon- Information:
Aus
Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren:
Variable
neue Variable
Legendre- Transformierte von
!
Es folgt:
wegen:
Zusammengefasst:
Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung !!
Betachte Variation:
dann:
Informationsgewinn:
Wir können die variierten Funktionen für kleine Variationen 
entwickeln:
Vergleiche oben
also folgt:
Definiere Suszeptibilitätsmatrix:
Diese Matrix beschreibt die Änderung von 
bzw.:
In Matrixschreibweise:
Wegen
Somit:
ist symmetrisch
Aus
folgt:
Also:  negativ- semidefinite quadratisceh Form:
Nebenbemerkung:
Also sind
und
konvex !
Zusammenhang mit der Korrelationsmatrix
ist Korrelationsmatrix ( siehe oben)
2. Kumulante
mit Kumulantenerzeugender
Suszeptibilität !
Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !!
Also:
Fluktuations/ Dissipations- Theorem:
Fluktuationen: Zufällige Schwankungen um den Mittelwert
Dissipation: Systematische Änderung der Mittelwerte !
Korrektur einer Verteilung durch Zusatzinformationen
Sei
die Verteilung, die
unter Kenntnis der Nebenbedingungen
minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !)
Jetzt:
Zusatzinformationen ( zusätzliche Mittelwerte beobachtet):
Prinzip der vorurteilsfreien Schätzung
Suche Minimum des Informationsgewinns
unter dieser Nebenbedingung !!
Also:
mit neuen Lagrange- Multiplikatoren 
Mit
folgt:
Da nun die Mittelwerte 
nicht durch die Zusatzinfo geändert werden muss gelten:
da diese Mittelwerte nicht durch die Zusatzinfo geändert werden !
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !
Siehe auch
< references />
- ↑ ST7,5.4.13