Editing Verallgemeinerte kanonische Verteilung
Jump to navigation
Jump to search
The edit can be undone. Please check the comparison below to verify that this is what you want to do, and then publish the changes below to finish undoing the edit.
Latest revision | Your text | ||
Line 13: | Line 13: | ||
== Methode == | == Methode == | ||
Vorurteilsfreie Schätzung (Jaynes, 1957): | Vorurteilsfreie Schätzung ( Jaynes , 1957): | ||
(unbiased guess; Prinzip des maximalen Nichtwissens) | (unbiased guess; Prinzip des maximalen Nichtwissens) | ||
* Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund. | * Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund. | ||
** (Minimum der Shannon- Information <math>I\left( \rho (x) \right)</math>= Maximum des Nichtwissens <math>S\left( \rho (x) \right)</math> liefert Gleichverteilung) | ** ( Minimum der Shannon- Information <math>I\left( \rho (x) \right)</math>= Maximum des Nichtwissens <math>S\left( \rho (x) \right)</math> liefert Gleichverteilung) | ||
* '''Jetzt: '''Zusätzlich zur Normierung der P<sub>i</sub> sind die Mittelwerte von m Zufallsvariablen: | * '''Jetzt: '''Zusätzlich zur Normierung der P<sub>i</sub> sind die Mittelwerte von m Zufallsvariablen: | ||
Line 31: | Line 31: | ||
<u>'''Annahme:'''</u> | <u>'''Annahme:'''</u> | ||
Jedes Elementarereignis <math>{{A}_{i}}</math> hat gleiche '''a-priori'''- Wahrscheinlichkeit, das heißt OHNE zusätzliche Kenntnisse <math>\left\langle {{M}^{n}} \right\rangle </math> gilt Gleichverteilung über den <math>{{A}_{i}}</math>. | Jedes Elementarereignis <math>{{A}_{i}}</math> hat gleiche '''a-priori'''- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse <math>\left\langle {{M}^{n}} \right\rangle </math> gilt Gleichverteilung über den <math>{{A}_{i}}</math>. | ||
== Informationstheoretisches Prinzip== | == Informationstheoretisches Prinzip== | ||
(nach (Jaynes 1922-1998)) | (nach (Jaynes 1922-1998)) | ||
Suche die Wahrscheinlichkeitsverteilung, die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält: | Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält: | ||
Also: <math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math> | Also: <math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math> | ||
Line 50: | Line 50: | ||
Es gilt: von den N Variationen <math>\delta {{P}_{i}}</math> sind nur N-m-1 unabhängig voneinander! | Es gilt: von den N Variationen <math>\delta {{P}_{i}}</math> sind nur N-m-1 unabhängig voneinander ! | ||
:<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math> | :<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math> | ||
Line 61: | Line 61: | ||
Lagrange- Multiplikator <math>{{\lambda }_{n}}</math> | Lagrange- Multiplikator <math>{{\lambda }_{n}}</math> | ||
<u>Anleitung</u>: Wähle <math>\Psi ,{{\lambda }_{n}}</math> so, dass die Koeffizienten von <math>\left( m+1 \right)\delta {{P}_{i}}</math>´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar! | <u>Anleitung</u>: Wähle <math>\Psi ,{{\lambda }_{n}}</math> so, dass die Koeffizienten von <math>\left( m+1 \right)\delta {{P}_{i}}</math>´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar ! | ||
Somit: | Somit: | ||
Line 73: | Line 73: | ||
{{Def|:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> '''verallgemeinerte kanonische Verteilung'''|verallgemeinerte kanonische Verteilung}} | {{Def|:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> '''verallgemeinerte kanonische Verteilung'''|verallgemeinerte kanonische Verteilung}} | ||
Die Lagrange- Multiplikatoren <math>\Psi ,{{\lambda }_{n}}</math> sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt! | Die Lagrange- Multiplikatoren <math>\Psi ,{{\lambda }_{n}}</math> sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt ! | ||
===Kontinuierliche Ereignismenge=== | ===Kontinuierliche Ereignismenge=== | ||
Line 117: | Line 117: | ||
{{FB|Legendre- Transformation}}: | {{FB|Legendre- Transformation}}: | ||
Sei <math>\Psi (t)</math> eine Bahn! | Sei <math>\Psi (t)</math> eine Bahn ! | ||
Dann ist <math>M:=\frac{d\Psi (t)}{dt}</math> die Geschwindigkeit. | Dann ist <math>M:=\frac{d\Psi (t)}{dt}</math> die Geschwindigkeit. | ||
Line 152: | Line 152: | ||
heißt legendre- Transformierte von | heißt legendre- Transformierte von | ||
:<math>\Psi (t)</math>. | :<math>\Psi (t)</math> | ||
. | |||
=== Anwendung auf die verallgemeinerte kanonische Verteilung: === | === Anwendung auf die verallgemeinerte kanonische Verteilung: === | ||
Line 181: | Line 181: | ||
{{Beispiel|'''Beispiel:''' | {{Beispiel|'''Beispiel:''' | ||
:<math>x=\left( {{q}_{1}},...,{{q}_{3N}},{{p}_{1}}....,{{p}_{3N}} \right)\in \Gamma </math> (Phasenraumelement) | :<math>x=\left( {{q}_{1}},...,{{q}_{3N}},{{p}_{1}}....,{{p}_{3N}} \right)\in \Gamma </math> ( Phasenraumelement) | ||
mit <math>\Gamma </math> als Phasenraum der kanonisch konjugierten Variablen | mit <math>\Gamma </math> als Phasenraum der kanonisch konjugierten Variablen | ||
Line 211: | Line 211: | ||
Damit können wir die Legendre- Transformation (verallgemeinert auf mehrere Variablen) identifizieren: | Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren: | ||
Line 221: | Line 221: | ||
:<math>I\left( M \right)\to I=\Psi -{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle </math> Legendre- Transformierte von <math>\Psi </math>! | :<math>I\left( M \right)\to I=\Psi -{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle </math> Legendre- Transformierte von <math>\Psi </math> ! | ||
Es folgt: | Es folgt: | ||
Line 362: | Line 362: | ||
'''Nebenbemerkung:''' | '''Nebenbemerkung:''' | ||
Also sind <math>I\left( \left\langle {{M}^{n}} \right\rangle \right)</math> und <math>-\Psi \left( {{\lambda }_{n}} \right)</math> konvex! | Also sind <math>I\left( \left\langle {{M}^{n}} \right\rangle \right)</math> und <math>-\Psi \left( {{\lambda }_{n}} \right)</math> konvex ! | ||
== Zusammenhang mit der Korrelationsmatrix == | == Zusammenhang mit der Korrelationsmatrix == | ||
:<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math> ist Korrelationsmatrix (siehe oben) | :<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math> ist Korrelationsmatrix ( siehe oben) | ||
:<math>={{\left\langle {{M}^{m}}{{M}^{n}} \right\rangle }_{c}}</math> 2. Kumulante | :<math>={{\left\langle {{M}^{m}}{{M}^{n}} \right\rangle }_{c}}</math> 2. Kumulante | ||
Line 383: | Line 383: | ||
Suszeptibilität! | Suszeptibilität ! | ||
Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität!! | Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !! | ||
Also: | Also: | ||
Line 397: | Line 397: | ||
;{{FB|Fluktuationen}}: Zufällige Schwankungen um den Mittelwert | ;{{FB|Fluktuationen}}: Zufällige Schwankungen um den Mittelwert | ||
;{{FB|Dissipation}}: Systematische Änderung der Mittelwerte! | ;{{FB|Dissipation}}: Systematische Änderung der Mittelwerte ! | ||
== Korrektur einer Verteilung durch Zusatzinformationen == | == Korrektur einer Verteilung durch Zusatzinformationen == | ||
Line 408: | Line 408: | ||
& m=1,...,m \\ | & m=1,...,m \\ | ||
\end{align}</math> | \end{align}</math> | ||
: minimalisiert (Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet!) | : minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !) | ||
'''Jetzt:''' | '''Jetzt:''' | ||
Zusatzinformationen (zusätzliche Mittelwerte beobachtet): | Zusatzinformationen ( zusätzliche Mittelwerte beobachtet): | ||
:<math>\begin{align} | :<math>\begin{align} | ||
Line 428: | Line 428: | ||
unter dieser Nebenbedingung!! | unter dieser Nebenbedingung !! | ||
Also: | Also: | ||
Line 481: | Line 481: | ||
da diese Mittelwerte nicht durch die Zusatzinfo geändert werden! | da diese Mittelwerte nicht durch die Zusatzinfo geändert werden ! | ||
Line 490: | Line 490: | ||
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info! | Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info ! | ||
==Siehe auch== | ==Siehe auch== | ||
<references /> | <references /> |