Editing Verallgemeinerte kanonische Verteilung
Jump to navigation
Jump to search
The edit can be undone. Please check the comparison below to verify that this is what you want to do, and then publish the changes below to finish undoing the edit.
Latest revision | Your text | ||
Line 3: | Line 3: | ||
== Motivation == | == Motivation == | ||
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte | Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte | ||
<math>\left\langle M(x) \right\rangle </math> | |||
von Mikroobservablen M(x), interpretiert als Zufallsvariable. | von Mikroobservablen M(x), interpretiert als Zufallsvariable. | ||
Rückschlüsse von | Rückschlüsse von | ||
<math>\left\langle M(x) \right\rangle </math> | |||
auf die Wahrscheinlichkeitsverteilung | auf die Wahrscheinlichkeitsverteilung | ||
<math>\rho (x)?</math> | |||
== Methode == | == Methode == | ||
Vorurteilsfreie Schätzung (Jaynes, 1957): | Vorurteilsfreie Schätzung ( Jaynes , 1957): | ||
(unbiased guess; Prinzip des maximalen Nichtwissens) | (unbiased guess; Prinzip des maximalen Nichtwissens) | ||
* Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund. | * Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund. | ||
** (Minimum der Shannon- Information <math>I\left( \rho (x) \right)</math>= Maximum des Nichtwissens <math>S\left( \rho (x) \right)</math> liefert Gleichverteilung) | ** ( Minimum der Shannon- Information <math>I\left( \rho (x) \right)</math>= Maximum des Nichtwissens <math>S\left( \rho (x) \right)</math> liefert Gleichverteilung) | ||
* '''Jetzt: '''Zusätzlich zur Normierung der P<sub>i</sub> sind die Mittelwerte von m Zufallsvariablen: | * '''Jetzt: '''Zusätzlich zur Normierung der P<sub>i</sub> sind die Mittelwerte von m Zufallsvariablen: | ||
Line 31: | Line 31: | ||
<u>'''Annahme:'''</u> | <u>'''Annahme:'''</u> | ||
Jedes Elementarereignis <math>{{A}_{i}}</math> hat gleiche '''a-priori'''- Wahrscheinlichkeit, das heißt OHNE zusätzliche Kenntnisse <math>\left\langle {{M}^{n}} \right\rangle </math> gilt Gleichverteilung über den <math>{{A}_{i}}</math>. | Jedes Elementarereignis <math>{{A}_{i}}</math> hat gleiche '''a-priori'''- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse <math>\left\langle {{M}^{n}} \right\rangle </math> gilt Gleichverteilung über den <math>{{A}_{i}}</math>. | ||
== Informationstheoretisches Prinzip== | == Informationstheoretisches Prinzip== | ||
(nach (Jaynes 1922-1998)) | (nach (Jaynes 1922-1998)) | ||
Suche die Wahrscheinlichkeitsverteilung, die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält: | Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält: | ||
Also: <math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math> | Also: <math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math> | ||
Line 50: | Line 50: | ||
Es gilt: von den N Variationen <math>\delta {{P}_{i}}</math> sind nur N-m-1 unabhängig voneinander! | Es gilt: von den N Variationen <math>\delta {{P}_{i}}</math> sind nur N-m-1 unabhängig voneinander ! | ||
:<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math> | :<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math> | ||
Line 61: | Line 61: | ||
Lagrange- Multiplikator <math>{{\lambda }_{n}}</math> | Lagrange- Multiplikator <math>{{\lambda }_{n}}</math> | ||
<u>Anleitung</u>: Wähle <math>\Psi ,{{\lambda }_{n}}</math> so, dass die Koeffizienten von <math>\left( m+1 \right)\delta {{P}_{i}}</math>´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar! | <u>Anleitung</u>: Wähle <math>\Psi ,{{\lambda }_{n}}</math> so, dass die Koeffizienten von <math>\left( m+1 \right)\delta {{P}_{i}}</math>´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar ! | ||
Somit: | Somit: | ||
Line 73: | Line 73: | ||
{{Def|:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> '''verallgemeinerte kanonische Verteilung'''|verallgemeinerte kanonische Verteilung}} | {{Def|:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> '''verallgemeinerte kanonische Verteilung'''|verallgemeinerte kanonische Verteilung}} | ||
Die Lagrange- Multiplikatoren <math>\Psi ,{{\lambda }_{n}}</math> sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt! | Die Lagrange- Multiplikatoren <math>\Psi ,{{\lambda }_{n}}</math> sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt ! | ||
===Kontinuierliche Ereignismenge=== | ===Kontinuierliche Ereignismenge=== | ||
Line 117: | Line 117: | ||
{{FB|Legendre- Transformation}}: | {{FB|Legendre- Transformation}}: | ||
Sei <math>\Psi (t)</math> eine Bahn! | Sei <math>\Psi (t)</math> eine Bahn ! | ||
Dann ist <math>M:=\frac{d\Psi (t)}{dt}</math> die Geschwindigkeit. | Dann ist <math>M:=\frac{d\Psi (t)}{dt}</math> die Geschwindigkeit. | ||
Line 126: | Line 126: | ||
<math>\begin{align} | |||
& \frac{dI}{dM}=\frac{d\Psi (t)}{dt}\frac{dtM}{dM}-M\frac{dt}{dM}-t \\ | & \frac{dI}{dM}=\frac{d\Psi (t)}{dt}\frac{dtM}{dM}-M\frac{dt}{dM}-t \\ | ||
& M:=\frac{d\Psi (t)}{dt} \\ | & M:=\frac{d\Psi (t)}{dt} \\ | ||
Line 134: | Line 134: | ||
hieraus folgt | hieraus folgt | ||
<math>M(t)</math> | |||
eingesetzt in | eingesetzt in | ||
<math>I(M)=\Psi (t)-M(t)t\Rightarrow \Psi (t)</math> | |||
durch Eisnetzen gewinnt man | durch Eisnetzen gewinnt man | ||
<math>\Psi (t)</math> | |||
Line 148: | Line 148: | ||
<math>I(M)=\Psi (t)-M(t)t</math> | |||
heißt legendre- Transformierte von | heißt legendre- Transformierte von | ||
<math>\Psi (t)</math> | |||
. | |||
=== Anwendung auf die verallgemeinerte kanonische Verteilung: === | === Anwendung auf die verallgemeinerte kanonische Verteilung: === | ||
<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | |||
Normierung: | Normierung: | ||
<math>\sum\limits_{i}^{{}}{{}}{{P}_{i}}=1\Rightarrow {{e}^{-\Psi }}=\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)\equiv Z</math> | |||
Line 169: | Line 169: | ||
<math>\Psi =\Psi \left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> und <math>{{P}_{i}}</math> sind durch <math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> vollständig parametrisiert. | |||
'''Nebenbemerkung''' | '''Nebenbemerkung''' | ||
Line 181: | Line 181: | ||
{{Beispiel|'''Beispiel:''' | {{Beispiel|'''Beispiel:''' | ||
<math>x=\left( {{q}_{1}},...,{{q}_{3N}},{{p}_{1}}....,{{p}_{3N}} \right)\in \Gamma </math> ( Phasenraumelement) | |||
mit <math>\Gamma </math> als Phasenraum der kanonisch konjugierten Variablen | mit <math>\Gamma </math> als Phasenraum der kanonisch konjugierten Variablen | ||
<math>M\left( x \right)=\sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right)</math> | |||
mikrokanonisch Verteilungsfunktion | |||
<math>\left\langle M\left( x \right) \right\rangle =\left\langle \sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right) \right\rangle </math> als mittlere Energie | |||
}} | }} | ||
'''Shannon- Information:''' | '''Shannon- Information:''' | ||
<math>\begin{align} | |||
& I(P)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}{{P}_{i}}{{M}_{i}}^{n} \\ | & I(P)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}{{P}_{i}}{{M}_{i}}^{n} \\ | ||
& I=\Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)-{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle \\ | & I=\Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)-{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle \\ | ||
Line 200: | Line 201: | ||
Aus <math>\begin{align} | Aus | ||
<math>\begin{align} | |||
& \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)=-\ln \sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right) \\ | & \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)=-\ln \sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right) \\ | ||
& \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =-\frac{\sum\limits_{i}^{{}}{{}}\left( -{{M}_{i}}^{n} \right)\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)}{\sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)} \\ | & \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =-\frac{\sum\limits_{i}^{{}}{{}}\left( -{{M}_{i}}^{n} \right)\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)}{\sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)} \\ | ||
Line 211: | Line 215: | ||
Damit können wir die Legendre- Transformation (verallgemeinert auf mehrere Variablen) identifizieren: | Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren: | ||
<math>\Psi (t)\to \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)</math> | |||
'''Variable | |||
<math>{{\lambda }_{n}}</math> | |||
''' | |||
<math>M\to \left\langle {{M}^{n}} \right\rangle =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}</math> | |||
neue Variable | |||
<math>\left\langle {{M}^{n}} \right\rangle </math> | |||
<math>I\left( M \right)\to I=\Psi -{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle </math> | |||
Legendre- Transformierte von | |||
<math>\Psi </math> | |||
! | |||
Es folgt: | Es folgt: | ||
<math>\frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=-{{\lambda }_{n}}</math> | |||
Line 232: | Line 244: | ||
<math>\begin{align} | |||
& \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=\frac{\partial \Psi }{\partial {{\lambda }_{m}}}\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }-\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }\left\langle {{M}^{m}} \right\rangle -{{\lambda }_{n}} \\ | & \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=\frac{\partial \Psi }{\partial {{\lambda }_{m}}}\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }-\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }\left\langle {{M}^{m}} \right\rangle -{{\lambda }_{n}} \\ | ||
& \frac{\partial \Psi }{\partial {{\lambda }_{m}}}=\left\langle {{M}^{m}} \right\rangle \\ | & \frac{\partial \Psi }{\partial {{\lambda }_{m}}}=\left\langle {{M}^{m}} \right\rangle \\ | ||
Line 241: | Line 253: | ||
Zusammengefasst: | Zusammengefasst: | ||
Dies ist in der Thermodynamik die | <math>dI=-{{\lambda }_{n}}d\left\langle {{M}^{n}} \right\rangle </math> | ||
Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung !! | |||
Betachte Variation: | Betachte Variation: | ||
<math>\left\langle {{M}^{n}} \right\rangle \to \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle </math> | |||
Line 255: | Line 268: | ||
<math>\begin{align} | |||
& {{\lambda }_{n}}\to {{\lambda }_{n}}+\delta {{\lambda }_{n}} \\ | & {{\lambda }_{n}}\to {{\lambda }_{n}}+\delta {{\lambda }_{n}} \\ | ||
& \Psi \to \Psi +\delta \Psi \\ | & \Psi \to \Psi +\delta \Psi \\ | ||
Line 265: | Line 278: | ||
<math>\begin{align} | |||
& K\left( P+\delta P,P \right)=\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln {{P}_{i}} \\ | & K\left( P+\delta P,P \right)=\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln {{P}_{i}} \\ | ||
& \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)=I\left( P+\delta P \right) \\ | & \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)=I\left( P+\delta P \right) \\ | ||
Line 276: | Line 289: | ||
Wir können die variierten Funktionen für kleine Variationen | Wir können die variierten Funktionen für kleine Variationen | ||
<math>\delta {{\lambda }_{n}}</math> | |||
entwickeln: | entwickeln: | ||
<math>\begin{align} | |||
& \delta \Psi =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | & \delta \Psi =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | ||
& \delta \left\langle {{M}^{n}} \right\rangle =\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | & \delta \left\langle {{M}^{n}} \right\rangle =\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | ||
Line 296: | Line 309: | ||
<math>\begin{align} | |||
& \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}\ge 0 \\ | & \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}\ge 0 \\ | ||
& \Rightarrow \frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\le 0 \\ | & \Rightarrow \frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\le 0 \\ | ||
Line 302: | Line 315: | ||
negativ semidefinit, für alle <math>\delta {{\lambda }_{m}}</math> | negativ semidefinit, für alle | ||
<math>\delta {{\lambda }_{m}}</math> | |||
Definiere Suszeptibilitätsmatrix: | |||
<math>{{\eta }^{mn}}:=\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}=\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}</math> | |||
Diese Matrix beschreibt die Änderung von | |||
<math>\left\langle {{M}^{m}} \right\rangle </math> | |||
bei Variation von | |||
<math>{{\lambda }_{n}}</math> | |||
: | |||
<math>\delta \left\langle {\bar{M}} \right\rangle =\bar{\bar{\eta }}\delta \bar{\lambda }</math> | |||
Line 320: | Line 340: | ||
<math>{{\tilde{\eta }}_{\sigma \lambda }}:=\frac{\partial {{\lambda }_{\sigma }}}{\partial \left\langle {{M}^{\lambda }} \right\rangle }=-\frac{{{\partial }^{2}}I}{\partial \left\langle {{M}^{\lambda }} \right\rangle \partial \left\langle {{M}^{\sigma }} \right\rangle }</math> | |||
Line 326: | Line 346: | ||
<math>\begin{align} | |||
& \delta \bar{\lambda }=\tilde{\bar{\bar{\eta }}}\delta \left\langle {\bar{M}} \right\rangle \\ | & \delta \bar{\lambda }=\tilde{\bar{\bar{\eta }}}\delta \left\langle {\bar{M}} \right\rangle \\ | ||
& \tilde{\bar{\bar{\eta }}}={{{\bar{\bar{\eta }}}}^{-1}} \\ | & \tilde{\bar{\bar{\eta }}}={{{\bar{\bar{\eta }}}}^{-1}} \\ | ||
Line 335: | Line 355: | ||
<math>\begin{align} | |||
& \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right) \\ | & \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right) \\ | ||
& \left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\left\langle {{M}^{m}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)={{\eta }^{mn}} \\ | & \left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\left\langle {{M}^{m}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)={{\eta }^{mn}} \\ | ||
Line 343: | Line 363: | ||
Somit: | Somit: | ||
<math>{{\eta }^{nm}}</math> | |||
ist symmetrisch | |||
Aus | |||
<math>K\left( P+\delta P,P \right)\ge 0</math> | |||
folgt: | |||
<math>{{\eta }^{mn}}\delta {{\lambda }_{m}}\delta {{\lambda }_{n}}=\delta \left\langle {{M}^{n}} \right\rangle \delta {{\lambda }_{n}}={{\tilde{\eta }}_{nm}}\delta \left\langle {{M}^{n}} \right\rangle \delta \left\langle {{M}^{m}} \right\rangle \le 0</math> | |||
Line 354: | Line 383: | ||
<math>\begin{align} | |||
& \Rightarrow {{\eta }^{nn}}\le 0 \\ | & \Rightarrow {{\eta }^{nn}}\le 0 \\ | ||
& {{{\tilde{\eta }}}_{nn}}\le 0 \\ | & {{{\tilde{\eta }}}_{nn}}\le 0 \\ | ||
Line 362: | Line 391: | ||
'''Nebenbemerkung:''' | '''Nebenbemerkung:''' | ||
Also sind <math>I\left( \left\langle {{M}^{n}} \right\rangle \right)</math> und <math>-\Psi \left( {{\lambda }_{n}} \right)</math> konvex! | Also sind | ||
<math>I\left( \left\langle {{M}^{n}} \right\rangle \right)</math> | |||
und | |||
<math>-\Psi \left( {{\lambda }_{n}} \right)</math> | |||
konvex ! | |||
== Zusammenhang mit der Korrelationsmatrix == | == Zusammenhang mit der Korrelationsmatrix == | ||
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math> | |||
ist Korrelationsmatrix ( siehe oben) | |||
<math>={{\left\langle {{M}^{m}}{{M}^{n}} \right\rangle }_{c}}</math> | |||
2. Kumulante | |||
<math>={{\left. \frac{{{\partial }^{2}}\Gamma \left( \alpha \right)}{\partial {{\alpha }_{m}}\partial {{\alpha }_{n}}} \right|}_{\alpha =0}}</math> | |||
mit Kumulantenerzeugender | |||
<math>\begin{align} | |||
& \Gamma \left( \alpha \right)=\ln \left\langle \exp \left( {{\alpha }_{n}}{{M}^{n}} \right) \right\rangle =\ln \sum\limits_{i}^{{}}{{}}{{P}_{i}}\exp \left( {{\alpha }_{n}}{{M}_{i}}^{n} \right)=\ln \sum\limits_{i}^{{}}{{}}{{e}^{\Psi -\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \\ | & \Gamma \left( \alpha \right)=\ln \left\langle \exp \left( {{\alpha }_{n}}{{M}^{n}} \right) \right\rangle =\ln \sum\limits_{i}^{{}}{{}}{{P}_{i}}\exp \left( {{\alpha }_{n}}{{M}_{i}}^{n} \right)=\ln \sum\limits_{i}^{{}}{{}}{{e}^{\Psi -\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \\ | ||
& =\ln \left[ {{e}^{\Psi }}\cdot \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=\Psi \left( \lambda \right)+\ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right] \\ | & =\ln \left[ {{e}^{\Psi }}\cdot \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=\Psi \left( \lambda \right)+\ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right] \\ | ||
Line 383: | Line 428: | ||
Suszeptibilität! | Suszeptibilität ! | ||
Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität!! | Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !! | ||
Also: | Also: | ||
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle =-\frac{\partial \left\langle {{M}^{m}} \right\rangle }{\partial {{\lambda }_{n}}}=-\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}</math> | |||
Fluktuations/ Dissipations- Theorem: | Fluktuations/ Dissipations- Theorem: | ||
Fluktuationen: Zufällige Schwankungen um den Mittelwert | |||
Dissipation: Systematische Änderung der Mittelwerte ! | |||
== Korrektur einer Verteilung durch Zusatzinformationen == | == Korrektur einer Verteilung durch Zusatzinformationen == | ||
Sei <math>{{P}^{0}}</math> die Verteilung, die <math>I\left( P \right)</math> unter Kenntnis der | Sei | ||
<math>{{P}^{0}}</math> | |||
die Verteilung, die | |||
<math>I\left( P \right)</math> | |||
unter Kenntnis der Nebenbedingungen | |||
<math>\begin{align} | |||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}=1 \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}=1 \\ | ||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}{{M}_{i}}^{m}=\left\langle {{M}^{m}} \right\rangle \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}{{M}_{i}}^{m}=\left\langle {{M}^{m}} \right\rangle \\ | ||
& m=1,...,m \\ | & m=1,...,m \\ | ||
\end{align}</math> | \end{align}</math> | ||
minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !) | |||
'''Jetzt:''' | '''Jetzt:''' | ||
Zusatzinformationen (zusätzliche Mittelwerte beobachtet): | Zusatzinformationen ( zusätzliche Mittelwerte beobachtet): | ||
<math>\begin{align} | |||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}{{V}_{i}}^{\sigma }=\left\langle {{V}_{i}}^{\sigma } \right\rangle \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}{{V}_{i}}^{\sigma }=\left\langle {{V}_{i}}^{\sigma } \right\rangle \\ | ||
& \sigma =1,...,s \\ | & \sigma =1,...,s \\ | ||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}=1 \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}=1 \\ | ||
\end{align}</math> | \end{align}</math> | ||
== Prinzip der vorurteilsfreien Schätzung == | == Prinzip der vorurteilsfreien Schätzung == | ||
Line 425: | Line 481: | ||
<math>K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln \frac{{{P}_{i}}}{{{P}_{i}}^{0}}</math> | |||
unter dieser Nebenbedingung!! | unter dieser Nebenbedingung !! | ||
Also: | Also: | ||
<math>\sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}+1+\xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0</math> | |||
mit neuen Lagrange- Multiplikatoren | mit neuen Lagrange- Multiplikatoren | ||
<math>\xi ,{{\xi }_{\sigma }}</math> | |||
<math>\begin{align} | |||
& \Rightarrow 1+\xi =-\Xi \\ | & \Rightarrow 1+\xi =-\Xi \\ | ||
& \sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}-\Xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0 \\ | & \sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}-\Xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0 \\ | ||
Line 451: | Line 507: | ||
<math>{{P}_{i}}^{0}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | |||
folgt: | folgt: | ||
<math>\begin{align} | |||
& K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}-{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}-{{P}_{i}}^{0}\ln {{P}_{i}}^{0} \\ | & K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}-{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}-{{P}_{i}}^{0}\ln {{P}_{i}}^{0} \\ | ||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=I(P) \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=I(P) \\ | ||
Line 468: | Line 524: | ||
Da nun die Mittelwerte | Da nun die Mittelwerte | ||
<math>\left\langle {{M}^{n}} \right\rangle ,{{\left\langle {{M}^{n}} \right\rangle }_{0}}</math> | |||
nicht durch die Zusatzinfo geändert werden muss gelten: | nicht durch die Zusatzinfo geändert werden muss gelten: | ||
<math>\begin{align} | |||
& K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | & K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | ||
& =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\ | & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\ | ||
Line 481: | Line 537: | ||
da diese Mittelwerte nicht durch die Zusatzinfo geändert werden! | da diese Mittelwerte nicht durch die Zusatzinfo geändert werden ! | ||
<math>\begin{align} | |||
& \Rightarrow K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | & \Rightarrow K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | ||
& =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=I(P)-I({{P}^{0}}) \\ | & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=I(P)-I({{P}^{0}}) \\ | ||
Line 490: | Line 546: | ||
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info! | Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info ! | ||
==Siehe auch== | ==Siehe auch== | ||
<references /> | <references /> |