Editing Verallgemeinerte kanonische Verteilung
Jump to navigation
Jump to search
The edit can be undone. Please check the comparison below to verify that this is what you want to do, and then publish the changes below to finish undoing the edit.
Latest revision | Your text | ||
Line 3: | Line 3: | ||
== Motivation == | == Motivation == | ||
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte | Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte | ||
<math>\left\langle M(x) \right\rangle </math> | |||
von Mikroobservablen M(x), interpretiert als Zufallsvariable. | von Mikroobservablen M(x), interpretiert als Zufallsvariable. | ||
Rückschlüsse von | Rückschlüsse von | ||
<math>\left\langle M(x) \right\rangle </math> | |||
auf die Wahrscheinlichkeitsverteilung | auf die Wahrscheinlichkeitsverteilung | ||
<math>\rho (x)?</math> | |||
== Methode == | == Methode == | ||
Vorurteilsfreie Schätzung (Jaynes, 1957): | Vorurteilsfreie Schätzung ( Jaynes , 1957): | ||
(unbiased guess; Prinzip des maximalen Nichtwissens) | (unbiased guess; Prinzip des maximalen Nichtwissens) | ||
* Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund. | * Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund. | ||
** (Minimum der Shannon- Information <math>I\left( \rho (x) \right)</math>= Maximum des Nichtwissens <math>S\left( \rho (x) \right)</math> liefert Gleichverteilung) | ** ( Minimum der Shannon- Information <math>I\left( \rho (x) \right)</math>= Maximum des Nichtwissens <math>S\left( \rho (x) \right)</math> liefert Gleichverteilung) | ||
* '''Jetzt: '''Zusätzlich zur Normierung der P<sub>i</sub> sind die Mittelwerte von m Zufallsvariablen: | * '''Jetzt: '''Zusätzlich zur Normierung der P<sub>i</sub> sind die Mittelwerte von m Zufallsvariablen: | ||
Line 31: | Line 31: | ||
<u>'''Annahme:'''</u> | <u>'''Annahme:'''</u> | ||
Jedes Elementarereignis <math>{{A}_{i}}</math> hat gleiche '''a-priori'''- Wahrscheinlichkeit, das heißt OHNE zusätzliche Kenntnisse <math>\left\langle {{M}^{n}} \right\rangle </math> gilt Gleichverteilung über den <math>{{A}_{i}}</math>. | Jedes Elementarereignis <math>{{A}_{i}}</math> hat gleiche '''a-priori'''- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse <math>\left\langle {{M}^{n}} \right\rangle </math> gilt Gleichverteilung über den <math>{{A}_{i}}</math>. | ||
== Informationstheoretisches Prinzip== | == Informationstheoretisches Prinzip== | ||
(nach (Jaynes 1922-1998)) | (nach (Jaynes 1922-1998)) | ||
Suche die Wahrscheinlichkeitsverteilung, die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält: | Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält: | ||
Also: <math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math> | Also: <math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math> | ||
Line 50: | Line 50: | ||
Es gilt: von den N Variationen <math>\delta {{P}_{i}}</math> sind nur N-m-1 unabhängig voneinander! | Es gilt: von den N Variationen <math>\delta {{P}_{i}}</math> sind nur N-m-1 unabhängig voneinander ! | ||
:<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math> | :<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math> | ||
Line 61: | Line 61: | ||
Lagrange- Multiplikator <math>{{\lambda }_{n}}</math> | Lagrange- Multiplikator <math>{{\lambda }_{n}}</math> | ||
<u>Anleitung</u>: Wähle <math>\Psi ,{{\lambda }_{n}}</math> so, dass die Koeffizienten von <math>\left( m+1 \right)\delta {{P}_{i}}</math>´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar! | <u>Anleitung</u>: Wähle <math>\Psi ,{{\lambda }_{n}}</math> so, dass die Koeffizienten von <math>\left( m+1 \right)\delta {{P}_{i}}</math>´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar ! | ||
Somit: | Somit: | ||
Line 73: | Line 73: | ||
{{Def|:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> '''verallgemeinerte kanonische Verteilung'''|verallgemeinerte kanonische Verteilung}} | {{Def|:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> '''verallgemeinerte kanonische Verteilung'''|verallgemeinerte kanonische Verteilung}} | ||
Die Lagrange- Multiplikatoren <math>\Psi ,{{\lambda }_{n}}</math> sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt! | Die Lagrange- Multiplikatoren <math>\Psi ,{{\lambda }_{n}}</math> sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt ! | ||
===Kontinuierliche Ereignismenge=== | ===Kontinuierliche Ereignismenge=== | ||
Line 117: | Line 117: | ||
{{FB|Legendre- Transformation}}: | {{FB|Legendre- Transformation}}: | ||
Sei <math>\Psi (t)</math> eine Bahn! | Sei <math>\Psi (t)</math> eine Bahn ! | ||
Dann ist <math>M:=\frac{d\Psi (t)}{dt}</math> die Geschwindigkeit. | Dann ist <math>M:=\frac{d\Psi (t)}{dt}</math> die Geschwindigkeit. | ||
Line 126: | Line 126: | ||
<math>\begin{align} | |||
& \frac{dI}{dM}=\frac{d\Psi (t)}{dt}\frac{dtM}{dM}-M\frac{dt}{dM}-t \\ | & \frac{dI}{dM}=\frac{d\Psi (t)}{dt}\frac{dtM}{dM}-M\frac{dt}{dM}-t \\ | ||
& M:=\frac{d\Psi (t)}{dt} \\ | & M:=\frac{d\Psi (t)}{dt} \\ | ||
Line 134: | Line 134: | ||
hieraus folgt | hieraus folgt | ||
<math>M(t)</math> | |||
eingesetzt in | eingesetzt in | ||
<math>I(M)=\Psi (t)-M(t)t\Rightarrow \Psi (t)</math> | |||
durch Eisnetzen gewinnt man | durch Eisnetzen gewinnt man | ||
<math>\Psi (t)</math> | |||
Line 148: | Line 148: | ||
<math>I(M)=\Psi (t)-M(t)t</math> | |||
heißt legendre- Transformierte von | heißt legendre- Transformierte von | ||
<math>\Psi (t)</math> | |||
. | |||
=== Anwendung auf die verallgemeinerte kanonische Verteilung: === | === Anwendung auf die verallgemeinerte kanonische Verteilung: === | ||
<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | |||
Line 163: | Line 163: | ||
{{Gln| | {{Gln| | ||
<math>\sum\limits_{i}^{{}}{{}}{{P}_{i}}=1\Rightarrow {{e}^{-\Psi }}=\sum_i \exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)\equiv Z</math>}} | |||
Line 169: | Line 169: | ||
<math>\Psi =\Psi \left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> und <math>{{P}_{i}}</math> sind durch <math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> vollständig parametrisiert. | |||
'''Nebenbemerkung''' | '''Nebenbemerkung''' | ||
Line 181: | Line 181: | ||
{{Beispiel|'''Beispiel:''' | {{Beispiel|'''Beispiel:''' | ||
<math>x=\left( {{q}_{1}},...,{{q}_{3N}},{{p}_{1}}....,{{p}_{3N}} \right)\in \Gamma </math> ( Phasenraumelement) | |||
mit <math>\Gamma </math> als Phasenraum der kanonisch konjugierten Variablen | mit <math>\Gamma </math> als Phasenraum der kanonisch konjugierten Variablen | ||
<math>M\left( x \right)=\sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right)</math> mikrokanonisch Verteilungsfunktion | |||
<math>\left\langle M\left( x \right) \right\rangle =\left\langle \sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right) \right\rangle </math> als mittlere Energie | |||
}} | }} | ||
'''Shannon- Information:''' | '''Shannon- Information:''' | ||
<math>\begin{align} | |||
& I(P)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}{{P}_{i}}{{M}_{i}}^{n} \\ | & I(P)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}{{P}_{i}}{{M}_{i}}^{n} \\ | ||
& I=\Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)-{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle \\ | & I=\Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)-{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle \\ | ||
Line 211: | Line 211: | ||
Damit können wir die Legendre- Transformation (verallgemeinert auf mehrere Variablen) identifizieren: | Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren: | ||
<math>\Psi (t)\to \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)</math> '''Variable''' <math>{{\lambda }_{n}}</math> | |||
<math>M\to \left\langle {{M}^{n}} \right\rangle =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}</math> neue Variable <math>\left\langle {{M}^{n}} \right\rangle </math> | |||
<math>I\left( M \right)\to I=\Psi -{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle </math> Legendre- Transformierte von <math>\Psi </math> ! | |||
Es folgt: | Es folgt: | ||
<math>\frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=-{{\lambda }_{n}}</math> | |||
Line 232: | Line 232: | ||
<math>\begin{align} | |||
& \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=\frac{\partial \Psi }{\partial {{\lambda }_{m}}}\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }-\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }\left\langle {{M}^{m}} \right\rangle -{{\lambda }_{n}} \\ | & \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=\frac{\partial \Psi }{\partial {{\lambda }_{m}}}\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }-\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }\left\langle {{M}^{m}} \right\rangle -{{\lambda }_{n}} \\ | ||
& \frac{\partial \Psi }{\partial {{\lambda }_{m}}}=\left\langle {{M}^{m}} \right\rangle \\ | & \frac{\partial \Psi }{\partial {{\lambda }_{m}}}=\left\langle {{M}^{m}} \right\rangle \\ | ||
Line 242: | Line 242: | ||
{{Gln| | {{Gln| | ||
<math>dI=-{{\lambda }_{n}}d\left\langle {{M}^{n}} \right\rangle </math> | |||
Dies ist in der Thermodynamik die '''Gibbsche Fundamentalgleichung'''!|Gibbsche Fundamentalgleichung}} | Dies ist in der Thermodynamik die '''Gibbsche Fundamentalgleichung'''!|Gibbsche Fundamentalgleichung}} | ||
Line 249: | Line 249: | ||
<math>\left\langle {{M}^{n}} \right\rangle \to \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle </math> | |||
Line 255: | Line 255: | ||
<math>\begin{align} | |||
& {{\lambda }_{n}}\to {{\lambda }_{n}}+\delta {{\lambda }_{n}} \\ | & {{\lambda }_{n}}\to {{\lambda }_{n}}+\delta {{\lambda }_{n}} \\ | ||
& \Psi \to \Psi +\delta \Psi \\ | & \Psi \to \Psi +\delta \Psi \\ | ||
Line 265: | Line 265: | ||
<math>\begin{align} | |||
& K\left( P+\delta P,P \right)=\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln {{P}_{i}} \\ | & K\left( P+\delta P,P \right)=\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln {{P}_{i}} \\ | ||
& \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)=I\left( P+\delta P \right) \\ | & \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)=I\left( P+\delta P \right) \\ | ||
Line 276: | Line 276: | ||
Wir können die variierten Funktionen für kleine Variationen | Wir können die variierten Funktionen für kleine Variationen | ||
<math>\delta {{\lambda }_{n}}</math> | |||
entwickeln: | entwickeln: | ||
<math>\begin{align} | |||
& \delta \Psi =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | & \delta \Psi =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | ||
& \delta \left\langle {{M}^{n}} \right\rangle =\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | & \delta \left\langle {{M}^{n}} \right\rangle =\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | ||
Line 296: | Line 296: | ||
<math>\begin{align} | |||
& \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}\ge 0 \\ | & \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}\ge 0 \\ | ||
& \Rightarrow \frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\le 0 \\ | & \Rightarrow \frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\le 0 \\ | ||
Line 308: | Line 308: | ||
<math>{{\eta }^{mn}}:=\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}=\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}</math> | |||
Line 320: | Line 320: | ||
<math>{{\tilde{\eta }}_{\sigma \lambda }}:=\frac{\partial {{\lambda }_{\sigma }}}{\partial \left\langle {{M}^{\lambda }} \right\rangle }=-\frac{{{\partial }^{2}}I}{\partial \left\langle {{M}^{\lambda }} \right\rangle \partial \left\langle {{M}^{\sigma }} \right\rangle }</math> | |||
Line 326: | Line 326: | ||
<math>\begin{align} | |||
& \delta \bar{\lambda }=\tilde{\bar{\bar{\eta }}}\delta \left\langle {\bar{M}} \right\rangle \\ | & \delta \bar{\lambda }=\tilde{\bar{\bar{\eta }}}\delta \left\langle {\bar{M}} \right\rangle \\ | ||
& \tilde{\bar{\bar{\eta }}}={{{\bar{\bar{\eta }}}}^{-1}} \\ | & \tilde{\bar{\bar{\eta }}}={{{\bar{\bar{\eta }}}}^{-1}} \\ | ||
Line 335: | Line 335: | ||
<math>\begin{align} | |||
& \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right) \\ | & \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right) \\ | ||
& \left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\left\langle {{M}^{m}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)={{\eta }^{mn}} \\ | & \left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\left\langle {{M}^{m}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)={{\eta }^{mn}} \\ | ||
Line 343: | Line 343: | ||
Somit: | Somit: | ||
<math>{{\eta }^{nm}}</math> ist symmetrisch | |||
Aus<math>K\left( P+\delta P,P \right)\ge 0</math> folgt: | Aus<math>K\left( P+\delta P,P \right)\ge 0</math> folgt: | ||
Line 354: | Line 354: | ||
<math>\begin{align} | |||
& \Rightarrow {{\eta }^{nn}}\le 0 \\ | & \Rightarrow {{\eta }^{nn}}\le 0 \\ | ||
& {{{\tilde{\eta }}}_{nn}}\le 0 \\ | & {{{\tilde{\eta }}}_{nn}}\le 0 \\ | ||
Line 362: | Line 362: | ||
'''Nebenbemerkung:''' | '''Nebenbemerkung:''' | ||
Also sind <math>I\left( \left\langle {{M}^{n}} \right\rangle \right)</math> und <math>-\Psi \left( {{\lambda }_{n}} \right)</math> konvex! | Also sind <math>I\left( \left\langle {{M}^{n}} \right\rangle \right)</math> und <math>-\Psi \left( {{\lambda }_{n}} \right)</math> konvex ! | ||
== Zusammenhang mit der Korrelationsmatrix == | == Zusammenhang mit der Korrelationsmatrix == | ||
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math> | |||
ist Korrelationsmatrix ( siehe oben) | |||
<math>={{\left\langle {{M}^{m}}{{M}^{n}} \right\rangle }_{c}}</math> | |||
2. Kumulante | |||
<math>={{\left. \frac{{{\partial }^{2}}\Gamma \left( \alpha \right)}{\partial {{\alpha }_{m}}\partial {{\alpha }_{n}}} \right|}_{\alpha =0}}</math> | |||
mit Kumulantenerzeugender | |||
<math>\begin{align} | |||
& \Gamma \left( \alpha \right)=\ln \left\langle \exp \left( {{\alpha }_{n}}{{M}^{n}} \right) \right\rangle =\ln \sum\limits_{i}^{{}}{{}}{{P}_{i}}\exp \left( {{\alpha }_{n}}{{M}_{i}}^{n} \right)=\ln \sum\limits_{i}^{{}}{{}}{{e}^{\Psi -\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \\ | & \Gamma \left( \alpha \right)=\ln \left\langle \exp \left( {{\alpha }_{n}}{{M}^{n}} \right) \right\rangle =\ln \sum\limits_{i}^{{}}{{}}{{P}_{i}}\exp \left( {{\alpha }_{n}}{{M}_{i}}^{n} \right)=\ln \sum\limits_{i}^{{}}{{}}{{e}^{\Psi -\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \\ | ||
& =\ln \left[ {{e}^{\Psi }}\cdot \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=\Psi \left( \lambda \right)+\ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right] \\ | & =\ln \left[ {{e}^{\Psi }}\cdot \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=\Psi \left( \lambda \right)+\ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right] \\ | ||
Line 383: | Line 387: | ||
Suszeptibilität! | Suszeptibilität ! | ||
Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität!! | Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !! | ||
Also: | Also: | ||
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle =-\frac{\partial \left\langle {{M}^{m}} \right\rangle }{\partial {{\lambda }_{n}}}=-\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}</math> | |||
Fluktuations/ Dissipations- Theorem: | Fluktuations/ Dissipations- Theorem: | ||
Fluktuationen: Zufällige Schwankungen um den Mittelwert | |||
Dissipation: Systematische Änderung der Mittelwerte ! | |||
== Korrektur einer Verteilung durch Zusatzinformationen == | == Korrektur einer Verteilung durch Zusatzinformationen == | ||
Sei <math>{{P}^{0}}</math> die Verteilung, die <math>I\left( P \right)</math> unter Kenntnis der | Sei | ||
<math>{{P}^{0}}</math> | |||
die Verteilung, die | |||
<math>I\left( P \right)</math> | |||
unter Kenntnis der Nebenbedingungen | |||
<math>\begin{align} | |||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}=1 \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}=1 \\ | ||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}{{M}_{i}}^{m}=\left\langle {{M}^{m}} \right\rangle \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}{{M}_{i}}^{m}=\left\langle {{M}^{m}} \right\rangle \\ | ||
& m=1,...,m \\ | & m=1,...,m \\ | ||
\end{align}</math> | \end{align}</math> | ||
minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !) | |||
'''Jetzt:''' | '''Jetzt:''' | ||
Zusatzinformationen (zusätzliche Mittelwerte beobachtet): | Zusatzinformationen ( zusätzliche Mittelwerte beobachtet): | ||
<math>\begin{align} | |||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}{{V}_{i}}^{\sigma }=\left\langle {{V}_{i}}^{\sigma } \right\rangle \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}{{V}_{i}}^{\sigma }=\left\langle {{V}_{i}}^{\sigma } \right\rangle \\ | ||
& \sigma =1,...,s \\ | & \sigma =1,...,s \\ | ||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}=1 \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}=1 \\ | ||
\end{align}</math> | \end{align}</math> | ||
== Prinzip der vorurteilsfreien Schätzung == | == Prinzip der vorurteilsfreien Schätzung == | ||
Line 425: | Line 440: | ||
<math>K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln \frac{{{P}_{i}}}{{{P}_{i}}^{0}}</math> | |||
unter dieser Nebenbedingung!! | unter dieser Nebenbedingung !! | ||
Also: | Also: | ||
<math>\sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}+1+\xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0</math> | |||
mit neuen Lagrange- Multiplikatoren | mit neuen Lagrange- Multiplikatoren | ||
<math>\xi ,{{\xi }_{\sigma }}</math> | |||
<math>\begin{align} | |||
& \Rightarrow 1+\xi =-\Xi \\ | & \Rightarrow 1+\xi =-\Xi \\ | ||
& \sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}-\Xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0 \\ | & \sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}-\Xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0 \\ | ||
Line 451: | Line 466: | ||
<math>{{P}_{i}}^{0}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | |||
folgt: | folgt: | ||
<math>\begin{align} | |||
& K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}-{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}-{{P}_{i}}^{0}\ln {{P}_{i}}^{0} \\ | & K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}-{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}-{{P}_{i}}^{0}\ln {{P}_{i}}^{0} \\ | ||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=I(P) \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=I(P) \\ | ||
Line 468: | Line 483: | ||
Da nun die Mittelwerte | Da nun die Mittelwerte | ||
<math>\left\langle {{M}^{n}} \right\rangle ,{{\left\langle {{M}^{n}} \right\rangle }_{0}}</math> | |||
nicht durch die Zusatzinfo geändert werden muss gelten: | nicht durch die Zusatzinfo geändert werden muss gelten: | ||
<math>\begin{align} | |||
& K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | & K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | ||
& =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\ | & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\ | ||
Line 481: | Line 496: | ||
da diese Mittelwerte nicht durch die Zusatzinfo geändert werden! | da diese Mittelwerte nicht durch die Zusatzinfo geändert werden ! | ||
<math>\begin{align} | |||
& \Rightarrow K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | & \Rightarrow K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | ||
& =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=I(P)-I({{P}^{0}}) \\ | & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=I(P)-I({{P}^{0}}) \\ | ||
Line 490: | Line 505: | ||
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info! | Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info ! | ||
==Siehe auch== | ==Siehe auch== | ||
<references /> | <references /> |