Verallgemeinerte kanonische Verteilung: Difference between revisions
Die Seite wurde neu angelegt: „ <math>\rho \left( x \right)=\exp \left( \psi -{{\lambda }_{\nu }}{{M}^{\nu }} \right)</math> <math>{{M}^{\nu }}</math> mikroskopische Obeservable <math>\left\…“ |
No edit summary |
||
Line 1: | Line 1: | ||
<noinclude>{{Scripthinweis|Thermodynamik|1|3}}</noinclude> | |||
===Verallgemeinerte kanonische Verteilung=== | |||
<math> | ====Motivation:==== | ||
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte | |||
<math>\left\langle M(x) \right\rangle </math> | |||
von Mikroobservablen M(x), interpretiert als Zufallsvariable. | |||
Rückschlüsse von | |||
<math>\left\langle M(x) \right\rangle </math> | |||
auf die Wahrscheinlichkeitsverteilung | |||
<math>\rho (x)?</math> | |||
<math>\left\langle {{M}^{\ | |||
====Methode:==== | |||
Vorurteilsfreie Schätzung ( Jaynes , 1957): | |||
unbiased guess; Prinzip des maximalen Nichtwissens: | |||
* Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund. | |||
* ( Minimum der Shannon- Information | |||
<math>I\left( \rho (x) \right)</math> | |||
= Maximum des Nichtwissens | |||
<math>S\left( \rho (x) \right)</math> | |||
liefert Gleichverteilung | |||
* '''Jetzt: '''Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen: | |||
<math>\begin{align} | |||
& {{M}_{i}}^{n} \\ | |||
& n=1,2,...,m \\ | |||
& \Rightarrow \left\langle {{M}^{n}} \right\rangle =\sum\limits_{i=1}^{N}{{}}{{P}_{i}}{{M}_{i}}^{n} \\ | |||
& n=1,...,m \\ | |||
& m<<N \\ | |||
\end{align}</math> | |||
<u>'''Annahme:'''</u> | |||
Jedes Elementarereignis | |||
<math>{{A}_{i}}</math> | |||
hat gleiche '''a-priori'''- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse | |||
<math>\left\langle {{M}^{n}} \right\rangle </math> | |||
gilt Gleichverteilung über den | |||
<math>{{A}_{i}}</math> | |||
. | |||
====Informationstheoretisches Prinzip ( Jaynes)==== | |||
Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information '''enthält: | |||
Also: | |||
<math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math> | |||
Nebenbed.: | |||
<math>\begin{align} | |||
& \sum\limits_{i=1}^{N}{{}}{{P}_{i}}=1 \\ | |||
& \left\langle {{M}^{n}} \right\rangle =\sum\limits_{i=1}^{N}{{}}{{P}_{i}}{{M}_{i}}^{n} \\ | |||
& n=1,...,m \\ | |||
\end{align}</math> | |||
====Variation:==== | |||
<math>\delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}</math> | |||
Es gilt: von den N Variationen | |||
<math>\delta {{P}_{i}}</math> | |||
sind nur N-m-1 unabhängig voneinander ! | |||
<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math> | |||
Lagrange- Multiplikator | |||
<math>\lambda =-\left( \Psi +1 \right)</math> | |||
<math>\sum\limits_{i}^{{}}{{}}{{M}_{i}}^{n}\delta {{P}_{i}}=0</math> | |||
Lagrange- Multiplikator | |||
<math>{{\lambda }_{n}}</math> | |||
====Anleitung==== | |||
Wähle | |||
<math>\Psi ,{{\lambda }_{n}}</math> | |||
so, dass die Koeffizienten von | |||
<math>\left( m+1 \right)\delta {{P}_{i}}</math> | |||
´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar ! | |||
Somit: | |||
<math>\Rightarrow \delta I=\sum\limits_{i=1}^{N}{{}}\left( \ln {{P}_{i}}-\Psi +{{\lambda }_{n}}{{M}_{i}}^{n} \right)\delta {{P}_{i}}=!=0</math> | |||
Vorsicht: Auch Summe über n ( Einsteinsche Summenkonvention !) | |||
<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | |||
====Die verallgemeinerte kanonische Verteilung==== | |||
Die Lagrange- Multiplikatoren | |||
<math>\Psi ,{{\lambda }_{n}}</math> | |||
sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt ! | |||
<u>'''Kontinuierliche Ereignismenge !'''</u> | |||
<math>I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\rho (x)\ln \rho (x)}=!=Minimum</math> | |||
unter der Nebenbedingung | |||
<math>\begin{align} | |||
& \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}=1 \\ | |||
& \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}{{M}^{n}}(x)=\left\langle {{M}^{n}} \right\rangle \\ | |||
& n=1,...,m \\ | |||
\end{align}</math> | |||
Durchführung einer Funktionalvariation: | |||
<math>\delta \rho (x)</math> | |||
: | |||
<math>\begin{align} | |||
& \delta I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\left( \ln \rho (x)+1 \right)\delta \rho (x)}=0 \\ | |||
& \Rightarrow \int_{{}}^{{}}{{{d}^{d}}x\delta \rho (x)}=0 \\ | |||
& \int_{{}}^{{}}{{{d}^{d}}x{{M}^{n}}(x)\delta \rho (x)}=0 \\ | |||
& \Rightarrow \int_{{}}^{{}}{{{d}^{d}}x\left( \ln \rho -\Psi +{{\lambda }_{n}}{{M}^{n}} \right)\delta \rho (x)}=0 \\ | |||
& \Rightarrow \rho (x)=\exp (\Psi -{{\lambda }_{n}}{{M}^{n}}) \\ | |||
\end{align}</math> | |||
'''Vergleiche: A. Katz, Principles of Statistial Mechanics''' | |||
Eigenschaften der verallgemeinerten kanonischen Verteilung | |||
hier: noch rein informationstheoretisch, | |||
später: wichtige Anwendungen in der Thermodynamik | |||
====Legendre- Transformation:==== | |||
Sei | |||
<math>\Psi (t)</math> | |||
eine Bahn ! | |||
Dann ist | |||
<math>M:=\frac{d\Psi (t)}{dt}</math> | |||
die Geschwindigkeit. | |||
Aus | |||
<math>\Psi (M)</math> | |||
kann die Bahn | |||
<math>\Psi (t)</math> | |||
noch nicht rekonstruiert werden, jedoch aus | |||
<math>I(M)=\Psi (t)-M(t)t</math> | |||
mit t=t(M): | |||
<math>\begin{align} | |||
& \frac{dI}{dM}=\frac{d\Psi (t)}{dt}\frac{dtM}{dM}-M\frac{dt}{dM}-t \\ | |||
& M:=\frac{d\Psi (t)}{dt} \\ | |||
& \Rightarrow \frac{dI}{dM}=-t \\ | |||
\end{align}</math> | |||
hieraus folgt | |||
<math>M(t)</math> | |||
eingesetzt in | |||
<math>I(M)=\Psi (t)-M(t)t\Rightarrow \Psi (t)</math> | |||
durch Eisnetzen gewinnt man | |||
<math>\Psi (t)</math> | |||
Jedenfalls: | |||
<math>I(M)=\Psi (t)-M(t)t</math> | |||
heißt legendre- Transformierte von | |||
<math>\Psi (t)</math> | |||
. | |||
====Anwendung auf die verallgemeinerte kanonische Verteilung:==== | |||
<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | |||
Normierung: | |||
<math>\sum\limits_{i}^{{}}{{}}{{P}_{i}}=1\Rightarrow {{e}^{-\Psi }}=\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)\equiv Z</math> | |||
Also gilt: | |||
<math>\Psi =\Psi \left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> | |||
und | |||
<math>{{P}_{i}}</math> | |||
sind durch | |||
<math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> | |||
vollständig parametrisiert. | |||
'''Nebenbemerkung''' | |||
Die Verteilung | |||
<math>{{P}_{i}}</math> | |||
bzw. | |||
<math>\rho \left( x \right)</math> | |||
wirkt auf dem Raum der Zufallsvariablen | |||
<math>{{M}_{i}}^{n}</math> | |||
(diskret) bzw. | |||
<math>x\in {{R}^{d}}</math> | |||
(kontinuierlich). | |||
<math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> | |||
sind Parameter. | |||
<math>\left\langle {{M}^{n}} \right\rangle </math> | |||
sind Erwartungswerte | |||
<math>\left\langle {{M}^{n}} \right\rangle \in R</math> | |||
'''Beispiel:''' | |||
<math>x=\left( {{q}_{1}},...,{{q}_{3N}},{{p}_{1}}....,{{p}_{3N}} \right)\in \Gamma </math> | |||
( Phasenraumelement) | |||
mit | |||
<math>\Gamma </math> | |||
als Phasenraum der kanonisch konjugierten Variablen | |||
<math>M\left( x \right)=\sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right)</math> | |||
mikrokanonisch Verteilungsfunktion | |||
<math>\left\langle M\left( x \right) \right\rangle =\left\langle \sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right) \right\rangle </math> | |||
als mittlere Energie | |||
'''Shannon- Information:''' | |||
<math>\begin{align} | |||
& I(P)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}{{P}_{i}}{{M}_{i}}^{n} \\ | |||
& I=\Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)-{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle \\ | |||
\end{align}</math> | |||
Aus | |||
<math>\begin{align} | |||
& \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)=-\ln \sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right) \\ | |||
& \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =-\frac{\sum\limits_{i}^{{}}{{}}\left( -{{M}_{i}}^{n} \right)\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)}{\sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)} \\ | |||
& \sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)={{e}^{-\Psi }} \\ | |||
& \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =\sum\limits_{i}^{{}}{{}}\left( {{M}_{i}}^{n} \right)\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right) \\ | |||
& \exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)={{P}_{i}} \\ | |||
& \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =\sum\limits_{i}^{{}}{{}}\left( {{M}_{i}}^{n} \right){{P}_{i}} \\ | |||
& \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =\left\langle {{M}^{n}} \right\rangle \\ | |||
\end{align}</math> | |||
Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren: | |||
<math>\Psi (t)\to \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)</math> | |||
'''Variable | |||
<math>{{\lambda }_{n}}</math> | |||
''' | |||
<math>M\to \left\langle {{M}^{n}} \right\rangle =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}</math> | |||
neue Variable | |||
<math>\left\langle {{M}^{n}} \right\rangle </math> | |||
<math>I\left( M \right)\to I=\Psi -{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle </math> | |||
Legendre- Transformierte von | |||
<math>\Psi </math> | |||
! | |||
Es folgt: | |||
<math>\frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=-{{\lambda }_{n}}</math> | |||
wegen: | |||
<math>\begin{align} | |||
& \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=\frac{\partial \Psi }{\partial {{\lambda }_{m}}}\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }-\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }\left\langle {{M}^{m}} \right\rangle -{{\lambda }_{n}} \\ | |||
& \frac{\partial \Psi }{\partial {{\lambda }_{m}}}=\left\langle {{M}^{m}} \right\rangle \\ | |||
& \Rightarrow \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=-{{\lambda }_{n}} \\ | |||
\end{align}</math> | |||
Zusammengefasst: | |||
<math>dI=-{{\lambda }_{n}}d\left\langle {{M}^{n}} \right\rangle </math> | |||
Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung !! | |||
Betachte Variation: | |||
<math>\left\langle {{M}^{n}} \right\rangle \to \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle </math> | |||
dann: | |||
<math>\begin{align} | |||
& {{\lambda }_{n}}\to {{\lambda }_{n}}+\delta {{\lambda }_{n}} \\ | |||
& \Psi \to \Psi +\delta \Psi \\ | |||
& {{P}_{i}}\to {{P}_{i}}+\delta {{P}_{i}} \\ | |||
\end{align}</math> | |||
'''Informationsgewinn:''' | |||
<math>\begin{align} | |||
& K\left( P+\delta P,P \right)=\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln {{P}_{i}} \\ | |||
& \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)=I\left( P+\delta P \right) \\ | |||
& \Rightarrow K\left( P+\delta P,P \right)=\left( \Psi +\delta \Psi \right)-\left( {{\lambda }_{n}}+\delta {{\lambda }_{n}} \right)\left( \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\left( \Psi -{{\lambda }_{n}}{{M}^{n}}_{i} \right) \\ | |||
& \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\left( \Psi -{{\lambda }_{n}}{{M}^{n}}_{i} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right){{M}^{n}}_{i}=\Psi -{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle \right) \\ | |||
& \Rightarrow K\left( P+\delta P,P \right)=\left( \Psi +\delta \Psi \right)-\left( {{\lambda }_{n}}+\delta {{\lambda }_{n}} \right)\left( \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle \right)-\Psi +{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle \right) \\ | |||
& =\delta \Psi -\delta {{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle \right) \\ | |||
\end{align}</math> | |||
Wir können die variierten Funktionen für kleine Variationen | |||
<math>\delta {{\lambda }_{n}}</math> | |||
entwickeln: | |||
<math>\begin{align} | |||
& \delta \Psi =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | |||
& \delta \left\langle {{M}^{n}} \right\rangle =\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\ | |||
& \Rightarrow K\left( P+\delta P,P \right)=\delta \Psi -\delta {{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle \right)=\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}-\left\langle {{M}^{n}} \right\rangle \right)\delta {{\lambda }_{n}}+\left( \frac{1}{2}\frac{\partial }{\partial {{\lambda }_{m}}}\frac{\partial \Psi }{\partial {{\lambda }_{n}}}-\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}} \right)\delta {{\lambda }_{n}}\delta {{\lambda }_{m}} \\ | |||
& \frac{\partial \Psi }{\partial {{\lambda }_{n}}}=\left\langle {{M}^{n}} \right\rangle \Rightarrow \left( \frac{1}{2}\frac{\partial }{\partial {{\lambda }_{m}}}\frac{\partial \Psi }{\partial {{\lambda }_{n}}}-\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}} \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}} \\ | |||
& \left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}-\left\langle {{M}^{n}} \right\rangle \right)=0 \\ | |||
& \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}} \\ | |||
& K\left( P+\delta P,P \right)\ge 0 \\ | |||
\end{align}</math> | |||
Vergleiche oben | |||
also folgt: | |||
<math>\begin{align} | |||
& \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}\ge 0 \\ | |||
& \Rightarrow \frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\le 0 \\ | |||
\end{align}</math> | |||
negativ semidefinit, für alle | |||
<math>\delta {{\lambda }_{m}}</math> | |||
Definiere Suszeptibilitätsmatrix: | |||
<math>{{\eta }^{mn}}:=\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}=\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}</math> | |||
Diese Matrix beschreibt die Änderung von | |||
<math>\left\langle {{M}^{m}} \right\rangle </math> | |||
bei Variation von | |||
<math>{{\lambda }_{n}}</math> | |||
: | |||
<math>\delta \left\langle {\bar{M}} \right\rangle =\bar{\bar{\eta }}\delta \bar{\lambda }</math> | |||
bzw.: | |||
<math>{{\tilde{\eta }}_{\sigma \lambda }}:=\frac{\partial {{\lambda }_{\sigma }}}{\partial \left\langle {{M}^{\lambda }} \right\rangle }=-\frac{{{\partial }^{2}}I}{\partial \left\langle {{M}^{\lambda }} \right\rangle \partial \left\langle {{M}^{\sigma }} \right\rangle }</math> | |||
In Matrixschreibweise: | |||
<math>\begin{align} | |||
& \delta \bar{\lambda }=\tilde{\bar{\bar{\eta }}}\delta \left\langle {\bar{M}} \right\rangle \\ | |||
& \tilde{\bar{\bar{\eta }}}={{{\bar{\bar{\eta }}}}^{-1}} \\ | |||
\end{align}</math> | |||
Wegen | |||
<math>\begin{align} | |||
& \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right) \\ | |||
& \left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\left\langle {{M}^{m}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)={{\eta }^{mn}} \\ | |||
& \left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right)=\left\langle {{M}^{n}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right)={{\eta }^{nm}} \\ | |||
\end{align}</math> | |||
Somit: | |||
<math>{{\eta }^{nm}}</math> | |||
ist symmetrisch | |||
Aus | |||
<math>K\left( P+\delta P,P \right)\ge 0</math> | |||
folgt: | |||
<math>{{\eta }^{mn}}\delta {{\lambda }_{m}}\delta {{\lambda }_{n}}=\delta \left\langle {{M}^{n}} \right\rangle \delta {{\lambda }_{n}}={{\tilde{\eta }}_{nm}}\delta \left\langle {{M}^{n}} \right\rangle \delta \left\langle {{M}^{m}} \right\rangle \le 0</math> | |||
Also: negativ- semidefinite quadratisceh Form: | |||
<math>\begin{align} | |||
& \Rightarrow {{\eta }^{nn}}\le 0 \\ | |||
& {{{\tilde{\eta }}}_{nn}}\le 0 \\ | |||
\end{align}</math> | |||
'''Nebenbemerkung:''' | |||
Also sind | |||
<math>I\left( \left\langle {{M}^{n}} \right\rangle \right)</math> | |||
und | |||
<math>-\Psi \left( {{\lambda }_{n}} \right)</math> | |||
konvex ! | |||
====Zusammenhang mit der Korrelationsmatrix==== | |||
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math> | |||
ist Korrelationsmatrix ( siehe oben) | |||
<math>={{\left\langle {{M}^{m}}{{M}^{n}} \right\rangle }_{c}}</math> | |||
2. Kumulante | |||
<math>={{\left. \frac{{{\partial }^{2}}\Gamma \left( \alpha \right)}{\partial {{\alpha }_{m}}\partial {{\alpha }_{n}}} \right|}_{\alpha =0}}</math> | |||
mit Kumulantenerzeugender | |||
<math>\begin{align} | |||
& \Gamma \left( \alpha \right)=\ln \left\langle \exp \left( {{\alpha }_{n}}{{M}^{n}} \right) \right\rangle =\ln \sum\limits_{i}^{{}}{{}}{{P}_{i}}\exp \left( {{\alpha }_{n}}{{M}_{i}}^{n} \right)=\ln \sum\limits_{i}^{{}}{{}}{{e}^{\Psi -\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \\ | |||
& =\ln \left[ {{e}^{\Psi }}\cdot \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=\Psi \left( \lambda \right)+\ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right] \\ | |||
& \ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=-\Psi \left( \lambda -\alpha \right) \\ | |||
& \Rightarrow \Gamma \left( \alpha \right)=\Psi \left( \lambda \right)-\Psi \left( \lambda -\alpha \right) \\ | |||
& \Rightarrow {{Q}^{mn}}=-{{\left. \frac{{{\partial }^{2}}\Psi \left( \lambda -\alpha \right)}{\partial {{\alpha }_{m}}\partial {{\alpha }_{n}}} \right|}_{\alpha =0}}=-\frac{{{\partial }^{2}}\Psi \left( \lambda \right)}{\partial {{\lambda }_{m}}\partial {{\lambda }_{n}}}=-{{\eta }^{mn}} \\ | |||
\end{align}</math> | |||
Suszeptibilität ! | |||
Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !! | |||
Also: | |||
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle =-\frac{\partial \left\langle {{M}^{m}} \right\rangle }{\partial {{\lambda }_{n}}}=-\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}</math> | |||
Fluktuations/ Dissipations- Theorem: | |||
Fluktuationen: Zufällige Schwankungen um den Mittelwert | |||
Dissipation: Systematische Änderung der Mittelwerte ! | |||
====Korrektur einer Verteilung durch Zusatzinformationen==== | |||
Sei | |||
<math>{{P}^{0}}</math> | |||
die Verteilung, die | |||
<math>I\left( P \right)</math> | |||
unter Kenntnis der Nebenbedingungen | |||
<math>\begin{align} | |||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}=1 \\ | |||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}{{M}_{i}}^{m}=\left\langle {{M}^{m}} \right\rangle \\ | |||
& m=1,...,m \\ | |||
\end{align}</math> | |||
minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !) | |||
'''Jetzt:''' | |||
Zusatzinformationen ( zusätzliche Mittelwerte beobachtet): | |||
<math>\begin{align} | |||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}{{V}_{i}}^{\sigma }=\left\langle {{V}_{i}}^{\sigma } \right\rangle \\ | |||
& \sigma =1,...,s \\ | |||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}=1 \\ | |||
\end{align}</math> | |||
====Prinzip der vorurteilsfreien Schätzung==== | |||
Suche Minimum des Informationsgewinns | |||
<math>K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln \frac{{{P}_{i}}}{{{P}_{i}}^{0}}</math> | |||
unter dieser Nebenbedingung !! | |||
Also: | |||
<math>\sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}+1+\xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0</math> | |||
mit neuen Lagrange- Multiplikatoren | |||
<math>\xi ,{{\xi }_{\sigma }}</math> | |||
<math>\begin{align} | |||
& \Rightarrow 1+\xi =-\Xi \\ | |||
& \sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}-\Xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0 \\ | |||
& \Rightarrow {{P}_{i}}={{P}_{i}}^{0}\exp \left( \Xi -{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right) \\ | |||
\end{align}</math> | |||
Mit | |||
<math>{{P}_{i}}^{0}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> | |||
folgt: | |||
<math>\begin{align} | |||
& K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}-{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}-{{P}_{i}}^{0}\ln {{P}_{i}}^{0} \\ | |||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=I(P) \\ | |||
& \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}\ln {{P}_{i}}^{0}=I({{P}^{0}}) \\ | |||
& -{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}=-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}-{{P}_{i}}^{0} \right)\ln {{P}_{i}}^{0} \\ | |||
& \ln {{P}_{i}}^{0}=\Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \\ | |||
& -\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}-{{P}_{i}}^{0} \right)\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)={{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | |||
& \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)=\left\langle {{M}^{n}} \right\rangle \\ | |||
& \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right)={{\left\langle {{M}^{n}} \right\rangle }_{0}} \\ | |||
\end{align}</math> | |||
Da nun die Mittelwerte | |||
<math>\left\langle {{M}^{n}} \right\rangle ,{{\left\langle {{M}^{n}} \right\rangle }_{0}}</math> | |||
nicht durch die Zusatzinfo geändert werden muss gelten: | |||
<math>\begin{align} | |||
& K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | |||
& =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\ | |||
& keine\ddot{A}nderung \\ | |||
& \Rightarrow {{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=0 \\ | |||
& \left\langle {{M}^{n}} \right\rangle ={{\left\langle {{M}^{n}} \right\rangle }_{0}} \\ | |||
\end{align}</math> | |||
da diese Mittelwerte nicht durch die Zusatzinfo geändert werden ! | |||
<math>\begin{align} | |||
& \Rightarrow K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\ | |||
& =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=I(P)-I({{P}^{0}}) \\ | |||
\end{align}</math> | |||
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info ! |
Revision as of 21:44, 31 August 2010
65px|Kein GFDL | Der Artikel Verallgemeinerte kanonische Verteilung basiert auf der Vorlesungsmitschrift von Franz- Josef Schmitt des 1.Kapitels (Abschnitt 3) der Thermodynamikvorlesung von Prof. Dr. E. Schöll, PhD. |
|}}
{{#set:Urheber=Prof. Dr. E. Schöll, PhD|Inhaltstyp=Script|Kapitel=1|Abschnitt=3}} Kategorie:Thermodynamik __SHOWFACTBOX__
Verallgemeinerte kanonische Verteilung
Motivation:
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte von Mikroobservablen M(x), interpretiert als Zufallsvariable.
Rückschlüsse von auf die Wahrscheinlichkeitsverteilung
Methode:
Vorurteilsfreie Schätzung ( Jaynes , 1957):
unbiased guess; Prinzip des maximalen Nichtwissens:
- Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
- ( Minimum der Shannon- Information
liefert Gleichverteilung
- Jetzt: Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen:
Annahme:
hat gleiche a-priori- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse
gilt Gleichverteilung über den
Informationstheoretisches Prinzip ( Jaynes)
Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die minimale Information enthält:
Also:
Nebenbed.:
Variation:
Es gilt: von den N Variationen
sind nur N-m-1 unabhängig voneinander !
Lagrange- Multiplikator
Lagrange- Multiplikator
Anleitung
Wähle so, dass die Koeffizienten von ´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar !
Somit:
Vorsicht: Auch Summe über n ( Einsteinsche Summenkonvention !)
Die verallgemeinerte kanonische Verteilung
Die Lagrange- Multiplikatoren
sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt !
Kontinuierliche Ereignismenge !
unter der Nebenbedingung
Durchführung einer Funktionalvariation:
Vergleiche: A. Katz, Principles of Statistial Mechanics
Eigenschaften der verallgemeinerten kanonischen Verteilung
hier: noch rein informationstheoretisch,
später: wichtige Anwendungen in der Thermodynamik
Legendre- Transformation:
die Geschwindigkeit.
noch nicht rekonstruiert werden, jedoch aus
mit t=t(M):
Jedenfalls:
heißt legendre- Transformierte von
.
Anwendung auf die verallgemeinerte kanonische Verteilung:
Normierung:
Also gilt:
und
sind durch
vollständig parametrisiert.
Nebenbemerkung
bzw.
wirkt auf dem Raum der Zufallsvariablen
(diskret) bzw.
sind Parameter.
sind Erwartungswerte
Beispiel:
( Phasenraumelement)
mit als Phasenraum der kanonisch konjugierten Variablen
mikrokanonisch Verteilungsfunktion
Shannon- Information:
Aus
Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren:
Variable
neue Variable
Legendre- Transformierte von
!
Es folgt:
wegen:
Zusammengefasst:
Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung !!
Betachte Variation:
dann:
Informationsgewinn:
Wir können die variierten Funktionen für kleine Variationen
entwickeln:
Vergleiche oben
also folgt:
Definiere Suszeptibilitätsmatrix:
Diese Matrix beschreibt die Änderung von
bzw.:
In Matrixschreibweise:
Wegen
Somit:
ist symmetrisch
Aus
folgt:
Also: negativ- semidefinite quadratisceh Form:
Nebenbemerkung:
Also sind
und
konvex !
Zusammenhang mit der Korrelationsmatrix
ist Korrelationsmatrix ( siehe oben)
2. Kumulante
mit Kumulantenerzeugender
Suszeptibilität !
Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !!
Also:
Fluktuations/ Dissipations- Theorem:
Fluktuationen: Zufällige Schwankungen um den Mittelwert
Dissipation: Systematische Änderung der Mittelwerte !
Korrektur einer Verteilung durch Zusatzinformationen
Sei
die Verteilung, die
unter Kenntnis der Nebenbedingungen
minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !)
Jetzt:
Zusatzinformationen ( zusätzliche Mittelwerte beobachtet):
Prinzip der vorurteilsfreien Schätzung
Suche Minimum des Informationsgewinns
unter dieser Nebenbedingung !!
Also:
mit neuen Lagrange- Multiplikatoren
Mit
folgt:
Da nun die Mittelwerte
nicht durch die Zusatzinfo geändert werden muss gelten:
da diese Mittelwerte nicht durch die Zusatzinfo geändert werden !
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !