Editing Verallgemeinerte kanonische Verteilung
Jump to navigation
Jump to search
The edit can be undone. Please check the comparison below to verify that this is what you want to do, and then publish the changes below to finish undoing the edit.
Latest revision | Your text | ||
Line 1: | Line 1: | ||
<noinclude>{{Scripthinweis|Thermodynamik|1|3}}</noinclude> | <noinclude>{{Scripthinweis|Thermodynamik|1|3}}</noinclude> | ||
== Motivation == | == Motivation: == | ||
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte | Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte | ||
<math>\left\langle M(x) \right\rangle </math> | |||
von Mikroobservablen M(x), interpretiert als Zufallsvariable. | von Mikroobservablen M(x), interpretiert als Zufallsvariable. | ||
Rückschlüsse von | Rückschlüsse von | ||
<math>\left\langle M(x) \right\rangle </math> | |||
auf die Wahrscheinlichkeitsverteilung | auf die Wahrscheinlichkeitsverteilung | ||
<math>\rho (x)?</math> | |||
== Methode == | == Methode: == | ||
Vorurteilsfreie Schätzung (Jaynes, 1957): | Vorurteilsfreie Schätzung ( Jaynes , 1957): | ||
unbiased guess; Prinzip des maximalen Nichtwissens: | |||
* Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund. | * Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund. | ||
* ( Minimum der Shannon- Information | |||
* '''Jetzt: '''Zusätzlich zur Normierung der | <math>I\left( \rho (x) \right)</math> | ||
= Maximum des Nichtwissens | |||
<math>S\left( \rho (x) \right)</math> | |||
liefert Gleichverteilung | |||
* '''Jetzt: '''Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen: | |||
<math>\begin{align} | |||
& {{M}_{i}}^{n} \\ | & {{M}_{i}}^{n} \\ | ||
& n=1,2,...,m \\ | & n=1,2,...,m \\ | ||
Line 31: | Line 37: | ||
<u>'''Annahme:'''</u> | <u>'''Annahme:'''</u> | ||
Jedes Elementarereignis <math>{{A}_{i}}</math> hat gleiche '''a-priori'''- Wahrscheinlichkeit, das heißt OHNE zusätzliche Kenntnisse | Jedes Elementarereignis | ||
<math>{{A}_{i}}</math> | |||
hat gleiche '''a-priori'''- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse | |||
Suche die Wahrscheinlichkeitsverteilung, die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält: | <math>\left\langle {{M}^{n}} \right\rangle </math> | ||
gilt Gleichverteilung über den | |||
<math>{{A}_{i}}</math> | |||
. | |||
== Informationstheoretisches Prinzip ( Jaynes) == | |||
Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information '''enthält: | |||
Also: | |||
<math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math> | |||
Nebenbed.: | Nebenbed.: | ||
<math>\begin{align} | |||
& \sum\limits_{i=1}^{N}{{}}{{P}_{i}}=1 \\ | & \sum\limits_{i=1}^{N}{{}}{{P}_{i}}=1 \\ | ||
& \left\langle {{M}^{n}} \right\rangle =\sum\limits_{i=1}^{N}{{}}{{P}_{i}}{{M}_{i}}^{n} \\ | & \left\langle {{M}^{n}} \right\rangle =\sum\limits_{i=1}^{N}{{}}{{P}_{i}}{{M}_{i}}^{n} \\ | ||
Line 47: | Line 66: | ||
\end{align}</math> | \end{align}</math> | ||
== Variation: == | |||
<math>\delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}</math> | |||
Es gilt: von den N Variationen | |||
<math>\delta {{P}_{i}}</math> | |||
sind nur N-m-1 unabhängig voneinander ! | |||
<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math> | |||
Lagrange- Multiplikator | |||
<math>\lambda =-\left( \Psi +1 \right)</math> | |||
<math>\sum\limits_{i}^{{}}{{}}{{M}_{i}}^{n}\delta {{P}_{i}}=0</math> | |||
Lagrange- Multiplikator | |||
< | <math>{{\lambda }_{n}}</math> | ||
== Anleitung == | |||
Wähle | |||
<math>\Psi ,{{\lambda }_{n}}</math> | |||
so, dass die Koeffizienten von | |||
<math>\left( m+1 \right)\delta {{P}_{i}}</math> | |||
´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar ! | |||
Somit: | Somit: | ||
<math>\Rightarrow \delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}-\Psi +{{\lambda }_{n}}{{M}_{i}}^{n} \right)\delta {{P}_{i}}=!=0</math> | |||
Vorsicht: Auch Summe über n ( Einsteinsche Summenkonvention !) | |||
<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | |||
== Die verallgemeinerte kanonische Verteilung == | |||
Die Lagrange- Multiplikatoren | |||
<math>\Psi ,{{\lambda }_{n}}</math> | |||
sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt ! | |||
<u>'''Kontinuierliche Ereignismenge !'''</u> | |||
<math>I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\rho (x)\ln \rho (x)}=!=Minimum</math> | |||
Line 84: | Line 132: | ||
<math>\begin{align} | |||
& \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}=1 \\ | & \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}=1 \\ | ||
& \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}{{M}^{n}}(x)=\left\langle {{M}^{n}} \right\rangle \\ | & \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}{{M}^{n}}(x)=\left\langle {{M}^{n}} \right\rangle \\ | ||
Line 92: | Line 140: | ||
Durchführung einer Funktionalvariation: | Durchführung einer Funktionalvariation: | ||
<math>\delta \rho (x)</math> | |||
: | |||
<math>\begin{align} | |||
& \delta I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\left( \ln \rho (x)+1 \right)\delta \rho (x)}=0 \\ | & \delta I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\left( \ln \rho (x)+1 \right)\delta \rho (x)}=0 \\ | ||
& \Rightarrow \int_{{}}^{{}}{{{d}^{d}}x\delta \rho (x)}=0 \\ | & \Rightarrow \int_{{}}^{{}}{{{d}^{d}}x\delta \rho (x)}=0 \\ | ||
Line 105: | Line 153: | ||
'''Vergleiche: A. Katz, Principles of Statistial Mechanics''' | '''Vergleiche: A. Katz, Principles of Statistial Mechanics''' {{AnMS|Siehe auch {{Quelle|ST7|5.4.13|Kap 5.4.3 S46}}}} | ||
{{AnMS|Siehe auch {{Quelle| | |||
Eigenschaften der verallgemeinerten kanonischen Verteilung | |||
hier: noch rein informationstheoretisch, | hier: noch rein informationstheoretisch, | ||
Line 115: | Line 161: | ||
später: wichtige Anwendungen in der Thermodynamik | später: wichtige Anwendungen in der Thermodynamik | ||
== Legendre- Transformation: == | |||
Sei <math>\Psi (t)</math> eine Bahn! | Sei | ||
<math>\Psi (t)</math> | |||
eine Bahn ! | |||
Dann ist | |||
<math>M:=\frac{d\Psi (t)}{dt}</math> | |||
die Geschwindigkeit. | |||
Aus | |||
<math>\Psi (M)</math> | |||
kann die Bahn | |||
<math>\Psi (t)</math> | |||
noch nicht rekonstruiert werden, jedoch aus | |||
<math>I(M)=\Psi (t)-M(t)t</math> | |||
mit t=t(M): | mit t=t(M): | ||
<math>\begin{align} | |||
& \frac{dI}{dM}=\frac{d\Psi (t)}{dt}\frac{dtM}{dM}-M\frac{dt}{dM}-t \\ | & \frac{dI}{dM}=\frac{d\Psi (t)}{dt}\frac{dtM}{dM}-M\frac{dt}{dM}-t \\ | ||
& M:=\frac{d\Psi (t)}{dt} \\ | & M:=\frac{d\Psi (t)}{dt} \\ | ||
Line 134: | Line 195: | ||
hieraus folgt | hieraus folgt | ||
<math>M(t)</math> | |||
eingesetzt in | eingesetzt in | ||
<math>I(M)=\Psi (t)-M(t)t\Rightarrow \Psi (t)</math> | |||
durch Eisnetzen gewinnt man | durch Eisnetzen gewinnt man | ||
<math>\Psi (t)</math> | |||
Line 148: | Line 209: | ||
<math>I(M)=\Psi (t)-M(t)t</math> | |||
heißt legendre- Transformierte von | heißt legendre- Transformierte von | ||
<math>\Psi (t)</math> | |||
. | |||
== Anwendung auf die verallgemeinerte kanonische Verteilung: == | |||
= | <math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | ||
Normierung: | |||
<math>\sum\limits_{i}^{{}}{{}}{{P}_{i}}=1\Rightarrow {{e}^{-\Psi }}=\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)\equiv Z</math> | |||
Line 169: | Line 230: | ||
<math>\Psi =\Psi \left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> | |||
und | |||
<math>{{P}_{i}}</math> | |||
sind durch | |||
<math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> | |||
vollständig parametrisiert. | |||
'''Nebenbemerkung''' | '''Nebenbemerkung''' | ||
Die Verteilung <math>{{P}_{i}}</math> bzw. <math>\rho \left( x \right)</math> wirkt auf dem Raum der Zufallsvariablen <math>{{M}_{i}}^{n}</math> (diskret) bzw. <math>x\in {{R}^{d}}</math>(kontinuierlich) | Die Verteilung | ||
<math>{{P}_{i}}</math> | |||
bzw. | |||
<math>\rho \left( x \right)</math> | |||
wirkt auf dem Raum der Zufallsvariablen | |||
<math>{{M}_{i}}^{n}</math> | |||
(diskret) bzw. | |||
<math>x\in {{R}^{d}}</math> | |||
(kontinuierlich). | |||
<math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> | |||
sind Parameter. | |||
<math>\left\langle {{M}^{n}} \right\rangle </math> | |||
sind Erwartungswerte | |||
<math>\left\langle {{M}^{n}} \right\rangle \in R</math> | |||
'''Beispiel:''' | |||
<math>x=\left( {{q}_{1}},...,{{q}_{3N}},{{p}_{1}}....,{{p}_{3N}} \right)\in \Gamma </math> | |||
( Phasenraumelement) | |||
mit | |||
<math>\Gamma </math> | |||
als Phasenraum der kanonisch konjugierten Variablen | |||
<math>M\left( x \right)=\sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right)</math> | |||
mikrokanonisch Verteilungsfunktion | |||
<math>\left\langle M\left( x \right) \right\rangle =\left\langle \sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right) \right\rangle </math> | |||
als mittlere Energie | |||
'''Shannon- Information:''' | '''Shannon- Information:''' | ||
<math>\begin{align} | |||
& I(P)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}{{P}_{i}}{{M}_{i}}^{n} \\ | & I(P)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}{{P}_{i}}{{M}_{i}}^{n} \\ | ||
& I=\Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)-{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle \\ | & I=\Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)-{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle \\ | ||
Line 200: | Line 286: | ||
Aus <math>\begin{align} | Aus | ||
<math>\begin{align} | |||
& \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)=-\ln \sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right) \\ | & \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)=-\ln \sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right) \\ | ||
& \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =-\frac{\sum\limits_{i}^{{}}{{}}\left( -{{M}_{i}}^{n} \right)\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)}{\sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)} \\ | & \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =-\frac{\sum\limits_{i}^{{}}{{}}\left( -{{M}_{i}}^{n} \right)\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)}{\sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)} \\ | ||
Line 211: | Line 300: | ||
Damit können wir die Legendre- Transformation (verallgemeinert auf mehrere Variablen) identifizieren: | Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren: | ||
<math>\Psi (t)\to \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)</math> | |||
'''Variable | |||
<math>{{\lambda }_{n}}</math> | |||
''' | |||
<math>M\to \left\langle {{M}^{n}} \right\rangle =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}</math> | |||
neue Variable | |||
<math>\left\langle {{M}^{n}} \right\rangle </math> | |||
<math>I\left( M \right)\to I=\Psi -{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle </math> | |||
Legendre- Transformierte von | |||
<math>\Psi </math> | |||
! | |||
Es folgt: | Es folgt: | ||
<math>\frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=-{{\lambda }_{n}}</math> | |||
Line 232: | Line 329: | ||
<math>\begin{align} | |||
& \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=\frac{\partial \Psi }{\partial {{\lambda }_{m}}}\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }-\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }\left\langle {{M}^{m}} \right\rangle -{{\lambda }_{n}} \\ | & \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=\frac{\partial \Psi }{\partial {{\lambda }_{m}}}\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }-\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }\left\langle {{M}^{m}} \right\rangle -{{\lambda }_{n}} \\ | ||
& \frac{\partial \Psi }{\partial {{\lambda }_{m}}}=\left\langle {{M}^{m}} \right\rangle \\ | & \frac{\partial \Psi }{\partial {{\lambda }_{m}}}=\left\langle {{M}^{m}} \right\rangle \\ | ||
Line 241: | Line 338: | ||
Zusammengefasst: | Zusammengefasst: | ||
Dies ist in der Thermodynamik die | <math>dI=-{{\lambda }_{n}}d\left\langle {{M}^{n}} \right\rangle </math> | ||
Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung !! | |||
Betachte Variation: | Betachte Variation: | ||
<math>\left\langle {{M}^{n}} \right\rangle \to \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle </math> | |||
Line 255: | Line 353: | ||
<math>\begin{align} | |||
& {{\lambda }_{n}}\to {{\lambda }_{n}}+\delta {{\lambda }_{n}} \\ | & {{\lambda }_{n}}\to {{\lambda }_{n}}+\delta {{\lambda }_{n}} \\ | ||
& \Psi \to \Psi +\delta \Psi \\ | & \Psi \to \Psi +\delta \Psi \\ | ||
Line 265: | Line 363: | ||
<math>\begin{align} | |||
& K\left( P+\delta P,P \right)=\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln {{P}_{i}} \\ | & K\left( P+\delta P,P \right)=\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln {{P}_{i}} \\ | ||
& \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)=I\left( P+\delta P \right) \\ | & \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)=I\left( P+\delta P \right) \\ | ||
Line 276: | Line 374: | ||
Wir können die variierten Funktionen für kleine Variationen | Wir können die variierten Funktionen für kleine Variationen | ||
<math>\delta {{\lambda }_{n}}</math> | |||
entwickeln: | entwickeln: | ||
<math>\begin{align} | |||
& \delta \Psi =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | & \delta \Psi =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | ||
& \delta \left\langle {{M}^{n}} \right\rangle =\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | & \delta \left\langle {{M}^{n}} \right\rangle =\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | ||
Line 296: | Line 394: | ||
<math>\begin{align} | |||
& \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}\ge 0 \\ | & \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}\ge 0 \\ | ||
& \Rightarrow \frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\le 0 \\ | & \Rightarrow \frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\le 0 \\ | ||
Line 302: | Line 400: | ||
negativ semidefinit, für alle <math>\delta {{\lambda }_{m}}</math> | negativ semidefinit, für alle | ||
<math>\delta {{\lambda }_{m}}</math> | |||
Definiere | Definiere Suszeptibilitätsmatrix: | ||
<math>{{\eta }^{mn}}:=\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}=\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}</math> | |||
Diese Matrix beschreibt die Änderung von <math>\left\langle {{M}^{m}} \right\rangle </math> | Diese Matrix beschreibt die Änderung von | ||
<math>\left\langle {{M}^{m}} \right\rangle </math> | |||
:<math>\delta \left\langle {\bar{M}} \right\rangle =\bar{\bar{\eta }}\delta \bar{\lambda }</math> | bei Variation von | ||
<math>{{\lambda }_{n}}</math> | |||
: | |||
<math>\delta \left\langle {\bar{M}} \right\rangle =\bar{\bar{\eta }}\delta \bar{\lambda }</math> | |||
Line 320: | Line 425: | ||
<math>{{\tilde{\eta }}_{\sigma \lambda }}:=\frac{\partial {{\lambda }_{\sigma }}}{\partial \left\langle {{M}^{\lambda }} \right\rangle }=-\frac{{{\partial }^{2}}I}{\partial \left\langle {{M}^{\lambda }} \right\rangle \partial \left\langle {{M}^{\sigma }} \right\rangle }</math> | |||
Line 326: | Line 431: | ||
<math>\begin{align} | |||
& \delta \bar{\lambda }=\tilde{\bar{\bar{\eta }}}\delta \left\langle {\bar{M}} \right\rangle \\ | & \delta \bar{\lambda }=\tilde{\bar{\bar{\eta }}}\delta \left\langle {\bar{M}} \right\rangle \\ | ||
& \tilde{\bar{\bar{\eta }}}={{{\bar{\bar{\eta }}}}^{-1}} \\ | & \tilde{\bar{\bar{\eta }}}={{{\bar{\bar{\eta }}}}^{-1}} \\ | ||
Line 335: | Line 440: | ||
<math>\begin{align} | |||
& \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right) \\ | & \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right) \\ | ||
& \left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\left\langle {{M}^{m}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)={{\eta }^{mn}} \\ | & \left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\left\langle {{M}^{m}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)={{\eta }^{mn}} \\ | ||
Line 343: | Line 448: | ||
Somit: | Somit: | ||
<math>{{\eta }^{nm}}</math> | |||
ist symmetrisch | |||
:<math>{{\eta }^{mn}}\delta {{\lambda }_{m}}\delta {{\lambda }_{n}}=\delta \left\langle {{M}^{n}} \right\rangle \delta {{\lambda }_{n}}={{\tilde{\eta }}_{nm}}\delta \left\langle {{M}^{n}} \right\rangle \delta \left\langle {{M}^{m}} \right\rangle \le 0</math> | Aus | ||
<math>K\left( P+\delta P,P \right)\ge 0</math> | |||
folgt: | |||
<math>{{\eta }^{mn}}\delta {{\lambda }_{m}}\delta {{\lambda }_{n}}=\delta \left\langle {{M}^{n}} \right\rangle \delta {{\lambda }_{n}}={{\tilde{\eta }}_{nm}}\delta \left\langle {{M}^{n}} \right\rangle \delta \left\langle {{M}^{m}} \right\rangle \le 0</math> | |||
Line 354: | Line 468: | ||
<math>\begin{align} | |||
& \Rightarrow {{\eta }^{nn}}\le 0 \\ | & \Rightarrow {{\eta }^{nn}}\le 0 \\ | ||
& {{{\tilde{\eta }}}_{nn}}\le 0 \\ | & {{{\tilde{\eta }}}_{nn}}\le 0 \\ | ||
Line 362: | Line 476: | ||
'''Nebenbemerkung:''' | '''Nebenbemerkung:''' | ||
Also sind <math>I\left( \left\langle {{M}^{n}} \right\rangle \right)</math> und <math>-\Psi \left( {{\lambda }_{n}} \right)</math> konvex! | Also sind | ||
<math>I\left( \left\langle {{M}^{n}} \right\rangle \right)</math> | |||
und | |||
<math>-\Psi \left( {{\lambda }_{n}} \right)</math> | |||
konvex ! | |||
== Zusammenhang mit der Korrelationsmatrix == | == Zusammenhang mit der Korrelationsmatrix == | ||
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math> | |||
ist Korrelationsmatrix ( siehe oben) | |||
<math>={{\left\langle {{M}^{m}}{{M}^{n}} \right\rangle }_{c}}</math> | |||
2. Kumulante | |||
<math>={{\left. \frac{{{\partial }^{2}}\Gamma \left( \alpha \right)}{\partial {{\alpha }_{m}}\partial {{\alpha }_{n}}} \right|}_{\alpha =0}}</math> | |||
mit Kumulantenerzeugender | |||
<math>\begin{align} | |||
& \Gamma \left( \alpha \right)=\ln \left\langle \exp \left( {{\alpha }_{n}}{{M}^{n}} \right) \right\rangle =\ln \sum\limits_{i}^{{}}{{}}{{P}_{i}}\exp \left( {{\alpha }_{n}}{{M}_{i}}^{n} \right)=\ln \sum\limits_{i}^{{}}{{}}{{e}^{\Psi -\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \\ | & \Gamma \left( \alpha \right)=\ln \left\langle \exp \left( {{\alpha }_{n}}{{M}^{n}} \right) \right\rangle =\ln \sum\limits_{i}^{{}}{{}}{{P}_{i}}\exp \left( {{\alpha }_{n}}{{M}_{i}}^{n} \right)=\ln \sum\limits_{i}^{{}}{{}}{{e}^{\Psi -\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \\ | ||
& =\ln \left[ {{e}^{\Psi }}\cdot \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=\Psi \left( \lambda \right)+\ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right] \\ | & =\ln \left[ {{e}^{\Psi }}\cdot \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=\Psi \left( \lambda \right)+\ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right] \\ | ||
Line 383: | Line 513: | ||
Suszeptibilität! | Suszeptibilität ! | ||
Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität!! | Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !! | ||
Also: | Also: | ||
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle =-\frac{\partial \left\langle {{M}^{m}} \right\rangle }{\partial {{\lambda }_{n}}}=-\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}</math> | |||
Fluktuations/ Dissipations- Theorem: | Fluktuations/ Dissipations- Theorem: | ||
Fluktuationen: Zufällige Schwankungen um den Mittelwert | |||
Dissipation: Systematische Änderung der Mittelwerte ! | |||
== Korrektur einer Verteilung durch Zusatzinformationen == | == Korrektur einer Verteilung durch Zusatzinformationen == | ||
Sei <math>{{P}^{0}}</math> die Verteilung, die <math>I\left( P \right)</math> unter Kenntnis der | Sei | ||
<math>{{P}^{0}}</math> | |||
die Verteilung, die | |||
<math>I\left( P \right)</math> | |||
unter Kenntnis der Nebenbedingungen | |||
<math>\begin{align} | |||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}=1 \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}=1 \\ | ||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}{{M}_{i}}^{m}=\left\langle {{M}^{m}} \right\rangle \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}{{M}_{i}}^{m}=\left\langle {{M}^{m}} \right\rangle \\ | ||
& m=1,...,m \\ | & m=1,...,m \\ | ||
\end{align}</math> | \end{align}</math> | ||
minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !) | |||
'''Jetzt:''' | '''Jetzt:''' | ||
Zusatzinformationen (zusätzliche Mittelwerte beobachtet): | Zusatzinformationen ( zusätzliche Mittelwerte beobachtet): | ||
<math>\begin{align} | |||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}{{V}_{i}}^{\sigma }=\left\langle {{V}_{i}}^{\sigma } \right\rangle \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}{{V}_{i}}^{\sigma }=\left\langle {{V}_{i}}^{\sigma } \right\rangle \\ | ||
& \sigma =1,...,s \\ | & \sigma =1,...,s \\ | ||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}=1 \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}=1 \\ | ||
\end{align}</math> | \end{align}</math> | ||
== Prinzip der vorurteilsfreien Schätzung == | == Prinzip der vorurteilsfreien Schätzung == | ||
Line 425: | Line 566: | ||
<math>K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln \frac{{{P}_{i}}}{{{P}_{i}}^{0}}</math> | |||
unter dieser Nebenbedingung!! | unter dieser Nebenbedingung !! | ||
Also: | Also: | ||
<math>\sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}+1+\xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0</math> | |||
mit neuen Lagrange- Multiplikatoren | mit neuen Lagrange- Multiplikatoren | ||
<math>\xi ,{{\xi }_{\sigma }}</math> | |||
<math>\begin{align} | |||
& \Rightarrow 1+\xi =-\Xi \\ | & \Rightarrow 1+\xi =-\Xi \\ | ||
& \sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}-\Xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0 \\ | & \sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}-\Xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0 \\ | ||
Line 451: | Line 592: | ||
<math>{{P}_{i}}^{0}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | |||
folgt: | folgt: | ||
<math>\begin{align} | |||
& K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}-{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}-{{P}_{i}}^{0}\ln {{P}_{i}}^{0} \\ | & K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}-{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}-{{P}_{i}}^{0}\ln {{P}_{i}}^{0} \\ | ||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=I(P) \\ | & \sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=I(P) \\ | ||
Line 468: | Line 609: | ||
Da nun die Mittelwerte | Da nun die Mittelwerte | ||
<math>\left\langle {{M}^{n}} \right\rangle ,{{\left\langle {{M}^{n}} \right\rangle }_{0}}</math> | |||
nicht durch die Zusatzinfo geändert werden muss gelten: | nicht durch die Zusatzinfo geändert werden muss gelten: | ||
<math>\begin{align} | |||
& K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | & K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | ||
& =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\ | & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\ | ||
Line 481: | Line 622: | ||
da diese Mittelwerte nicht durch die Zusatzinfo geändert werden! | da diese Mittelwerte nicht durch die Zusatzinfo geändert werden ! | ||
<math>\begin{align} | |||
& \Rightarrow K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | & \Rightarrow K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | ||
& =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=I(P)-I({{P}^{0}}) \\ | & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=I(P)-I({{P}^{0}}) \\ | ||
Line 490: | Line 631: | ||
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info! | Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info ! | ||
==Siehe auch== | ==Siehe auch== | ||
<references /> | < references /> |