Editing Verallgemeinerte kanonische Verteilung

Jump to navigation Jump to search
Warning: You are not logged in. Your IP address will be publicly visible if you make any edits. If you log in or create an account, your edits will be attributed to your username, along with other benefits.

The edit can be undone. Please check the comparison below to verify that this is what you want to do, and then publish the changes below to finish undoing the edit.

Latest revision Your text
Line 3: Line 3:
== Motivation ==
== Motivation ==
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte  
Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte  
:<math>\left\langle M(x) \right\rangle </math>
<math>\left\langle M(x) \right\rangle </math>
von Mikroobservablen M(x), interpretiert als Zufallsvariable.
von Mikroobservablen M(x), interpretiert als Zufallsvariable.


Rückschlüsse von  
Rückschlüsse von  
:<math>\left\langle M(x) \right\rangle </math>
<math>\left\langle M(x) \right\rangle </math>
auf die Wahrscheinlichkeitsverteilung  
auf die Wahrscheinlichkeitsverteilung  
:<math>\rho (x)?</math>
<math>\rho (x)?</math>




== Methode ==
== Methode ==
Vorurteilsfreie Schätzung (Jaynes, 1957):
Vorurteilsfreie Schätzung ( Jaynes , 1957):
(unbiased guess; Prinzip des maximalen Nichtwissens)
 
unbiased guess; Prinzip des maximalen Nichtwissens:


* Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
* Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
** (Minimum der Shannon- Information <math>I\left( \rho (x) \right)</math>= Maximum des Nichtwissens <math>S\left( \rho (x) \right)</math> liefert Gleichverteilung)
* ( Minimum der Shannon- Information  
* '''Jetzt: '''Zusätzlich zur Normierung der P<sub>i</sub> sind die Mittelwerte von m Zufallsvariablen:
<math>I\left( \rho (x) \right)</math>
= Maximum des Nichtwissens  
<math>S\left( \rho (x) \right)</math>
liefert Gleichverteilung
* '''Jetzt: '''Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen:
 


:<math>\begin{align}
<math>\begin{align}
   & {{M}_{i}}^{n} \\  
   & {{M}_{i}}^{n} \\  
  & n=1,2,...,m \\  
  & n=1,2,...,m \\  
Line 31: Line 37:
<u>'''Annahme:'''</u>
<u>'''Annahme:'''</u>


Jedes Elementarereignis <math>{{A}_{i}}</math> hat gleiche '''a-priori'''- Wahrscheinlichkeit, das heißt OHNE zusätzliche Kenntnisse <math>\left\langle {{M}^{n}} \right\rangle </math> gilt Gleichverteilung über den <math>{{A}_{i}}</math>.
Jedes Elementarereignis  
<math>{{A}_{i}}</math>
hat gleiche '''a-priori'''- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse
 
 
<math>\left\langle {{M}^{n}} \right\rangle </math>
gilt Gleichverteilung über den  
<math>{{A}_{i}}</math>
.


== Informationstheoretisches Prinzip==
== Informationstheoretisches Prinzip==
(nach (Jaynes 1922-1998))
(nach (Jaynes 1922-1998))


Suche die Wahrscheinlichkeitsverteilung, die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält:
Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält:


Also: <math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math>
Also: <math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math>
Line 50: Line 64:




Es gilt: von den  N Variationen  <math>\delta {{P}_{i}}</math>  sind nur N-m-1  unabhängig voneinander!
Es gilt: von den  N Variationen  <math>\delta {{P}_{i}}</math>  sind nur N-m-1  unabhängig voneinander !


:<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math>
:<math>\sum\limits_{i}^{{}}{{}}\delta {{P}_{i}}=0</math>
Line 61: Line 75:
Lagrange- Multiplikator <math>{{\lambda }_{n}}</math>
Lagrange- Multiplikator <math>{{\lambda }_{n}}</math>


<u>Anleitung</u>: Wähle <math>\Psi ,{{\lambda }_{n}}</math> so, dass die Koeffizienten von <math>\left( m+1 \right)\delta {{P}_{i}}</math>´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar!
<u>Anleitung</u>: Wähle <math>\Psi ,{{\lambda }_{n}}</math> so, dass die Koeffizienten von <math>\left( m+1 \right)\delta {{P}_{i}}</math>´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar !


Somit:
Somit:
Line 71: Line 85:




{{Def|:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> '''verallgemeinerte kanonische Verteilung'''|verallgemeinerte kanonische Verteilung}}
:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math> Die {{FBverallgemeinerte kanonische Verteilung}}


Die Lagrange- Multiplikatoren <math>\Psi ,{{\lambda }_{n}}</math>  sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt!
Die Lagrange- Multiplikatoren <math>\Psi ,{{\lambda }_{n}}</math>  sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt !


===Kontinuierliche Ereignismenge===
===Kontinuierliche Ereignismenge===




:<math>I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\rho (x)\ln \rho (x)}=!=Minimum</math>
<math>I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\rho (x)\ln \rho (x)}=!=Minimum</math>




Line 84: Line 98:




:<math>\begin{align}
<math>\begin{align}
   & \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}=1 \\  
   & \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}=1 \\  
  & \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}{{M}^{n}}(x)=\left\langle {{M}^{n}} \right\rangle  \\  
  & \int_{{}}^{{}}{{{d}^{d}}x\rho (x)}{{M}^{n}}(x)=\left\langle {{M}^{n}} \right\rangle  \\  
Line 92: Line 106:


Durchführung einer Funktionalvariation:  
Durchführung einer Funktionalvariation:  
:<math>\delta \rho (x)</math>
<math>\delta \rho (x)</math>
 
:




:<math>\begin{align}
<math>\begin{align}
   & \delta I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\left( \ln \rho (x)+1 \right)\delta \rho (x)}=0 \\  
   & \delta I(\rho )=\int_{{}}^{{}}{{{d}^{d}}x\left( \ln \rho (x)+1 \right)\delta \rho (x)}=0 \\  
  & \Rightarrow \int_{{}}^{{}}{{{d}^{d}}x\delta \rho (x)}=0 \\  
  & \Rightarrow \int_{{}}^{{}}{{{d}^{d}}x\delta \rho (x)}=0 \\  
Line 106: Line 120:


'''Vergleiche: A. Katz, Principles of Statistial Mechanics'''
'''Vergleiche: A. Katz, Principles of Statistial Mechanics'''
 
{{AnMS|Siehe auch {{Quelle|ST7|5.4.13|Kap 5.4.3 S46}}}}
{{AnMS|Siehe auch {{Quelle|St7B|5.4.13|Kap 5.4.3 S46}}}}


==Eigenschaften der verallgemeinerten kanonischen Verteilung==
==Eigenschaften der verallgemeinerten kanonischen Verteilung==
Line 117: Line 130:
{{FB|Legendre- Transformation}}:
{{FB|Legendre- Transformation}}:


Sei <math>\Psi (t)</math> eine Bahn!
Sei <math>\Psi (t)</math> eine Bahn !


Dann ist <math>M:=\frac{d\Psi (t)}{dt}</math> die Geschwindigkeit.
Dann ist <math>M:=\frac{d\Psi (t)}{dt}</math> die Geschwindigkeit.
Line 126: Line 139:




:<math>\begin{align}
<math>\begin{align}
   & \frac{dI}{dM}=\frac{d\Psi (t)}{dt}\frac{dtM}{dM}-M\frac{dt}{dM}-t \\  
   & \frac{dI}{dM}=\frac{d\Psi (t)}{dt}\frac{dtM}{dM}-M\frac{dt}{dM}-t \\  
  & M:=\frac{d\Psi (t)}{dt} \\  
  & M:=\frac{d\Psi (t)}{dt} \\  
Line 134: Line 147:


hieraus folgt  
hieraus folgt  
:<math>M(t)</math>
<math>M(t)</math>




eingesetzt in  
eingesetzt in  
:<math>I(M)=\Psi (t)-M(t)t\Rightarrow \Psi (t)</math>
<math>I(M)=\Psi (t)-M(t)t\Rightarrow \Psi (t)</math>




durch Eisnetzen gewinnt man  
durch Eisnetzen gewinnt man  
:<math>\Psi (t)</math>
<math>\Psi (t)</math>




Line 148: Line 161:




:<math>I(M)=\Psi (t)-M(t)t</math>
<math>I(M)=\Psi (t)-M(t)t</math>




heißt legendre- Transformierte von  
heißt legendre- Transformierte von  
:<math>\Psi (t)</math>.
<math>\Psi (t)</math>
 
.


=== Anwendung auf die verallgemeinerte kanonische Verteilung: ===
=== Anwendung auf die verallgemeinerte kanonische Verteilung: ===


:<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>
<math>\Rightarrow {{P}_{i}}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>




Normierung:
Normierung:


{{Gln|
 
:<math>\sum\limits_{i}^{{}}{{}}{{P}_{i}}=1\Rightarrow {{e}^{-\Psi }}=\sum_i \exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)\equiv Z</math>}}
<math>\sum\limits_{i}^{{}}{{}}{{P}_{i}}=1\Rightarrow {{e}^{-\Psi }}=\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)\equiv Z</math>




Line 169: Line 182:




:<math>\Psi =\Psi \left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> und <math>{{P}_{i}}</math> sind durch <math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> vollständig parametrisiert.
<math>\Psi =\Psi \left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math>
und  
<math>{{P}_{i}}</math>
sind durch  
<math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math>
vollständig parametrisiert.


'''Nebenbemerkung'''
'''Nebenbemerkung'''


Die Verteilung <math>{{P}_{i}}</math> bzw. <math>\rho \left( x \right)</math> wirkt auf dem Raum der Zufallsvariablen <math>{{M}_{i}}^{n}</math> (diskret) bzw. <math>x\in {{R}^{d}}</math>(kontinuierlich).
Die Verteilung  
:<math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math> sind Parameter.
<math>{{P}_{i}}</math>
bzw.  
<math>\rho \left( x \right)</math>
wirkt auf dem Raum der Zufallsvariablen  
<math>{{M}_{i}}^{n}</math>
(diskret) bzw.  
<math>x\in {{R}^{d}}</math>
(kontinuierlich).
 
 
<math>\left( {{\lambda }_{1}},...,{{\lambda }_{m}} \right)</math>
sind Parameter.
 
 
<math>\left\langle {{M}^{n}} \right\rangle </math>
sind Erwartungswerte
<math>\left\langle {{M}^{n}} \right\rangle \in R</math>
 


'''Beispiel:'''


:<math>\left\langle {{M}^{n}} \right\rangle </math> sind Erwartungswerte <math>\left\langle {{M}^{n}} \right\rangle \in R</math>


<math>x=\left( {{q}_{1}},...,{{q}_{3N}},{{p}_{1}}....,{{p}_{3N}} \right)\in \Gamma </math>
  ( Phasenraumelement)


{{Beispiel|'''Beispiel:'''
mit
:<math>x=\left( {{q}_{1}},...,{{q}_{3N}},{{p}_{1}}....,{{p}_{3N}} \right)\in \Gamma </math> (Phasenraumelement)
<math>\Gamma </math>
als Phasenraum der kanonisch konjugierten Variablen


mit <math>\Gamma </math> als Phasenraum der kanonisch konjugierten Variablen


<math>M\left( x \right)=\sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right)</math>
mikrokanonisch Verteilungsfunktion


:<math>M\left( x \right)=\sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right)</math> mikrokanonisch Verteilungsfunktion


<math>\left\langle M\left( x \right) \right\rangle =\left\langle \sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right) \right\rangle </math>
als mittlere Energie


:<math>\left\langle M\left( x \right) \right\rangle =\left\langle \sum\limits_{i=1}^{3N}{{}}\left( \frac{{{p}_{i}}^{2}}{2m}+V\left( {{q}_{i}} \right) \right) \right\rangle </math> als mittlere Energie
}}
'''Shannon- Information:'''
'''Shannon- Information:'''




:<math>\begin{align}
<math>\begin{align}
   & I(P)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}{{P}_{i}}{{M}_{i}}^{n} \\  
   & I(P)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)=\Psi -{{\lambda }_{n}}\sum\limits_{i}^{{}}{{}}{{P}_{i}}{{M}_{i}}^{n} \\  
  & I=\Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)-{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle  \\  
  & I=\Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)-{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle  \\  
Line 200: Line 238:




Aus <math>\begin{align}
Aus
 
 
<math>\begin{align}
   & \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)=-\ln \sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right) \\  
   & \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)=-\ln \sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right) \\  
  & \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =-\frac{\sum\limits_{i}^{{}}{{}}\left( -{{M}_{i}}^{n} \right)\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)}{\sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)} \\   
  & \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\Psi =-\frac{\sum\limits_{i}^{{}}{{}}\left( -{{M}_{i}}^{n} \right)\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)}{\sum\limits_{i}^{{}}{{}}\exp \left( -{{\lambda }_{n}}{{M}_{i}}^{n} \right)} \\   
Line 211: Line 252:




Damit können wir die Legendre- Transformation (verallgemeinert auf mehrere Variablen) identifizieren:
Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren:




:<math>\Psi (t)\to \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)</math> '''Variable''' <math>{{\lambda }_{n}}</math>
<math>\Psi (t)\to \Psi \left( {{\lambda }_{1}},...{{\lambda }_{m}} \right)</math>
  '''Variable
<math>{{\lambda }_{n}}</math>
'''




:<math>M\to \left\langle {{M}^{n}} \right\rangle =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}</math> neue Variable  <math>\left\langle {{M}^{n}} \right\rangle </math>
<math>M\to \left\langle {{M}^{n}} \right\rangle =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}</math>
  neue Variable   
<math>\left\langle {{M}^{n}} \right\rangle </math>






:<math>I\left( M \right)\to I=\Psi -{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle </math> Legendre- Transformierte von <math>\Psi </math>!
<math>I\left( M \right)\to I=\Psi -{{\lambda }_{n}}\left\langle {{M}^{n}} \right\rangle </math>
  Legendre- Transformierte von  
<math>\Psi </math>
!


Es folgt:
Es folgt:




:<math>\frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=-{{\lambda }_{n}}</math>
<math>\frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=-{{\lambda }_{n}}</math>




Line 232: Line 281:




:<math>\begin{align}
<math>\begin{align}
   & \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=\frac{\partial \Psi }{\partial {{\lambda }_{m}}}\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }-\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }\left\langle {{M}^{m}} \right\rangle -{{\lambda }_{n}} \\  
   & \frac{\partial I}{\partial \left\langle {{M}^{n}} \right\rangle }=\frac{\partial \Psi }{\partial {{\lambda }_{m}}}\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }-\frac{\partial {{\lambda }_{m}}}{\partial \left\langle {{M}^{n}} \right\rangle }\left\langle {{M}^{m}} \right\rangle -{{\lambda }_{n}} \\  
  & \frac{\partial \Psi }{\partial {{\lambda }_{m}}}=\left\langle {{M}^{m}} \right\rangle  \\  
  & \frac{\partial \Psi }{\partial {{\lambda }_{m}}}=\left\langle {{M}^{m}} \right\rangle  \\  
Line 241: Line 290:
Zusammengefasst:
Zusammengefasst:


{{Gln|
:<math>dI=-{{\lambda }_{n}}d\left\langle {{M}^{n}} \right\rangle </math>


Dies ist in der Thermodynamik die '''Gibbsche Fundamentalgleichung'''!|Gibbsche Fundamentalgleichung}}
<math>dI=-{{\lambda }_{n}}d\left\langle {{M}^{n}} \right\rangle </math>
 
 
Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung !!


Betachte Variation:
Betachte Variation:




:<math>\left\langle {{M}^{n}} \right\rangle \to \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle </math>
<math>\left\langle {{M}^{n}} \right\rangle \to \left\langle {{M}^{n}} \right\rangle +\delta \left\langle {{M}^{n}} \right\rangle </math>




Line 255: Line 305:




:<math>\begin{align}
<math>\begin{align}
   & {{\lambda }_{n}}\to {{\lambda }_{n}}+\delta {{\lambda }_{n}} \\  
   & {{\lambda }_{n}}\to {{\lambda }_{n}}+\delta {{\lambda }_{n}} \\  
  & \Psi \to \Psi +\delta \Psi  \\  
  & \Psi \to \Psi +\delta \Psi  \\  
Line 265: Line 315:




:<math>\begin{align}
<math>\begin{align}
   & K\left( P+\delta P,P \right)=\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln {{P}_{i}} \\  
   & K\left( P+\delta P,P \right)=\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln {{P}_{i}} \\  
  & \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)=I\left( P+\delta P \right) \\  
  & \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}+\delta {{P}_{i}} \right)\ln \left( {{P}_{i}}+\delta {{P}_{i}} \right)=I\left( P+\delta P \right) \\  
Line 276: Line 326:


Wir können die variierten Funktionen für kleine Variationen  
Wir können die variierten Funktionen für kleine Variationen  
:<math>\delta {{\lambda }_{n}}</math>
<math>\delta {{\lambda }_{n}}</math>
entwickeln:
entwickeln:




:<math>\begin{align}
<math>\begin{align}
   & \delta \Psi =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\  
   & \delta \Psi =\frac{\partial \Psi }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\  
  & \delta \left\langle {{M}^{n}} \right\rangle =\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\  
  & \delta \left\langle {{M}^{n}} \right\rangle =\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}\delta {{\lambda }_{n}}+\frac{1}{2}\frac{{{\partial }^{2}}\left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}+.... \\  
Line 296: Line 346:




:<math>\begin{align}
<math>\begin{align}
   & \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}\ge 0 \\  
   & \Rightarrow K\left( P+\delta P,P \right)=-\frac{1}{2}\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\delta {{\lambda }_{n}}\delta {{\lambda }_{m}}\ge 0 \\  
  & \Rightarrow \frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\le 0 \\  
  & \Rightarrow \frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}\le 0 \\  
Line 302: Line 352:




negativ semidefinit, für alle <math>\delta {{\lambda }_{m}}</math>
negativ semidefinit, für alle  
<math>\delta {{\lambda }_{m}}</math>
 
 
Definiere Suszeptibilitätsmatrix:




Definiere {{FB|Suszeptibilitätsmatrix}}:
<math>{{\eta }^{mn}}:=\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}=\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}</math>




:<math>{{\eta }^{mn}}:=\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{n}}}=\frac{{{\partial }^{2}}\Psi }{\partial {{\lambda }_{n}}\partial {{\lambda }_{m}}}</math>
Diese Matrix beschreibt die Änderung von
<math>\left\langle {{M}^{m}} \right\rangle </math>




Diese Matrix beschreibt die Änderung von <math>\left\langle {{M}^{m}} \right\rangle </math> bei Variation von <math>{{\lambda }_{n}}</math>:
bei Variation von  
<math>{{\lambda }_{n}}</math>
:




:<math>\delta \left\langle {\bar{M}} \right\rangle =\bar{\bar{\eta }}\delta \bar{\lambda }</math>
<math>\delta \left\langle {\bar{M}} \right\rangle =\bar{\bar{\eta }}\delta \bar{\lambda }</math>




Line 320: Line 377:




:<math>{{\tilde{\eta }}_{\sigma \lambda }}:=\frac{\partial {{\lambda }_{\sigma }}}{\partial \left\langle {{M}^{\lambda }} \right\rangle }=-\frac{{{\partial }^{2}}I}{\partial \left\langle {{M}^{\lambda }} \right\rangle \partial \left\langle {{M}^{\sigma }} \right\rangle }</math>
<math>{{\tilde{\eta }}_{\sigma \lambda }}:=\frac{\partial {{\lambda }_{\sigma }}}{\partial \left\langle {{M}^{\lambda }} \right\rangle }=-\frac{{{\partial }^{2}}I}{\partial \left\langle {{M}^{\lambda }} \right\rangle \partial \left\langle {{M}^{\sigma }} \right\rangle }</math>




Line 326: Line 383:




:<math>\begin{align}
<math>\begin{align}
   & \delta \bar{\lambda }=\tilde{\bar{\bar{\eta }}}\delta \left\langle {\bar{M}} \right\rangle  \\  
   & \delta \bar{\lambda }=\tilde{\bar{\bar{\eta }}}\delta \left\langle {\bar{M}} \right\rangle  \\  
  & \tilde{\bar{\bar{\eta }}}={{{\bar{\bar{\eta }}}}^{-1}} \\  
  & \tilde{\bar{\bar{\eta }}}={{{\bar{\bar{\eta }}}}^{-1}} \\  
Line 335: Line 392:




:<math>\begin{align}
<math>\begin{align}
   & \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right) \\  
   & \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\frac{\partial }{\partial {{\lambda }_{m}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{n}}} \right) \\  
  & \left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\left\langle {{M}^{m}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)={{\eta }^{mn}} \\  
  & \left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)=\left\langle {{M}^{m}} \right\rangle \Rightarrow \frac{\partial }{\partial {{\lambda }_{n}}}\left( \frac{\partial \Psi }{\partial {{\lambda }_{m}}} \right)={{\eta }^{mn}} \\  
Line 343: Line 400:


Somit:
Somit:
:<math>{{\eta }^{nm}}</math>  ist symmetrisch


Aus<math>K\left( P+\delta P,P \right)\ge 0</math> folgt:


<math>{{\eta }^{nm}}</math>
  ist symmetrisch


:<math>{{\eta }^{mn}}\delta {{\lambda }_{m}}\delta {{\lambda }_{n}}=\delta \left\langle {{M}^{n}} \right\rangle \delta {{\lambda }_{n}}={{\tilde{\eta }}_{nm}}\delta \left\langle {{M}^{n}} \right\rangle \delta \left\langle {{M}^{m}} \right\rangle \le 0</math>
Aus
 
 
<math>K\left( P+\delta P,P \right)\ge 0</math>
 
 
folgt:
 
 
<math>{{\eta }^{mn}}\delta {{\lambda }_{m}}\delta {{\lambda }_{n}}=\delta \left\langle {{M}^{n}} \right\rangle \delta {{\lambda }_{n}}={{\tilde{\eta }}_{nm}}\delta \left\langle {{M}^{n}} \right\rangle \delta \left\langle {{M}^{m}} \right\rangle \le 0</math>




Line 354: Line 420:




:<math>\begin{align}
<math>\begin{align}
   & \Rightarrow {{\eta }^{nn}}\le 0 \\  
   & \Rightarrow {{\eta }^{nn}}\le 0 \\  
  & {{{\tilde{\eta }}}_{nn}}\le 0 \\  
  & {{{\tilde{\eta }}}_{nn}}\le 0 \\  
Line 362: Line 428:
'''Nebenbemerkung:'''
'''Nebenbemerkung:'''


Also sind <math>I\left( \left\langle {{M}^{n}} \right\rangle  \right)</math> und <math>-\Psi \left( {{\lambda }_{n}} \right)</math> konvex!
Also sind
 
 
<math>I\left( \left\langle {{M}^{n}} \right\rangle  \right)</math>
 
 
und
 
 
<math>-\Psi \left( {{\lambda }_{n}} \right)</math>
 
 
konvex !


== Zusammenhang mit der Korrelationsmatrix ==
== Zusammenhang mit der Korrelationsmatrix ==


:<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math> ist Korrelationsmatrix (siehe oben)
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle </math>
  ist Korrelationsmatrix ( siehe oben)


:<math>={{\left\langle {{M}^{m}}{{M}^{n}} \right\rangle }_{c}}</math>  2. Kumulante


<math>={{\left\langle {{M}^{m}}{{M}^{n}} \right\rangle }_{c}}</math>
  2. Kumulante


:<math>={{\left. \frac{{{\partial }^{2}}\Gamma \left( \alpha  \right)}{\partial {{\alpha }_{m}}\partial {{\alpha }_{n}}} \right|}_{\alpha =0}}</math>  mit Kumulantenerzeugender


<math>={{\left. \frac{{{\partial }^{2}}\Gamma \left( \alpha  \right)}{\partial {{\alpha }_{m}}\partial {{\alpha }_{n}}} \right|}_{\alpha =0}}</math>
  mit Kumulantenerzeugender


:<math>\begin{align}
 
<math>\begin{align}
   & \Gamma \left( \alpha  \right)=\ln \left\langle \exp \left( {{\alpha }_{n}}{{M}^{n}} \right) \right\rangle =\ln \sum\limits_{i}^{{}}{{}}{{P}_{i}}\exp \left( {{\alpha }_{n}}{{M}_{i}}^{n} \right)=\ln \sum\limits_{i}^{{}}{{}}{{e}^{\Psi -\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \\  
   & \Gamma \left( \alpha  \right)=\ln \left\langle \exp \left( {{\alpha }_{n}}{{M}^{n}} \right) \right\rangle =\ln \sum\limits_{i}^{{}}{{}}{{P}_{i}}\exp \left( {{\alpha }_{n}}{{M}_{i}}^{n} \right)=\ln \sum\limits_{i}^{{}}{{}}{{e}^{\Psi -\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \\  
  & =\ln \left[ {{e}^{\Psi }}\cdot \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=\Psi \left( \lambda  \right)+\ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right] \\  
  & =\ln \left[ {{e}^{\Psi }}\cdot \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right]=\Psi \left( \lambda  \right)+\ln \left[ \sum\limits_{i}^{{}}{{}}{{e}^{-\left( {{\lambda }_{n}}-{{\alpha }_{n}} \right){{M}_{i}}^{n}}} \right] \\  
Line 383: Line 465:




Suszeptibilität!
Suszeptibilität !


Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität!!
Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !!


Also:
Also:
{{Gln|


:<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle =-\frac{\partial \left\langle {{M}^{m}} \right\rangle }{\partial {{\lambda }_{n}}}=-\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}</math> |Fluktuations-Dissipations-Theorem}}
 
<math>{{Q}^{mn}}:=\left\langle \Delta {{M}^{m}}\Delta {{M}^{n}} \right\rangle =-\frac{\partial \left\langle {{M}^{m}} \right\rangle }{\partial {{\lambda }_{n}}}=-\frac{\partial \left\langle {{M}^{n}} \right\rangle }{\partial {{\lambda }_{m}}}</math>




Fluktuations/ Dissipations- Theorem:
Fluktuations/ Dissipations- Theorem:


;{{FB|Fluktuationen}}: Zufällige Schwankungen um den Mittelwert
Fluktuationen: Zufällige Schwankungen um den Mittelwert


;{{FB|Dissipation}}: Systematische Änderung der Mittelwerte!
Dissipation: Systematische Änderung der Mittelwerte !


== Korrektur einer Verteilung durch Zusatzinformationen ==
== Korrektur einer Verteilung durch Zusatzinformationen ==


Sei <math>{{P}^{0}}</math> die Verteilung, die <math>I\left( P \right)</math> unter Kenntnis der '''Nebenbedingungen'''
Sei
 
 
<math>{{P}^{0}}</math>
die Verteilung, die  
<math>I\left( P \right)</math>
unter Kenntnis der Nebenbedingungen
 


:<math>\begin{align}
<math>\begin{align}
   & \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}=1 \\  
   & \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}=1 \\  
  & \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}{{M}_{i}}^{m}=\left\langle {{M}^{m}} \right\rangle  \\  
  & \sum\limits_{i}^{{}}{{}}{{P}_{i}}^{0}{{M}_{i}}^{m}=\left\langle {{M}^{m}} \right\rangle  \\  
  & m=1,...,m \\  
  & m=1,...,m \\  
\end{align}</math>
\end{align}</math>
: minimalisiert (Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet!)
 
 
minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !)


'''Jetzt:'''
'''Jetzt:'''


Zusatzinformationen (zusätzliche Mittelwerte beobachtet):
Zusatzinformationen ( zusätzliche Mittelwerte beobachtet):


:<math>\begin{align}
 
<math>\begin{align}
   & \sum\limits_{i}^{{}}{{}}{{P}_{i}}{{V}_{i}}^{\sigma }=\left\langle {{V}_{i}}^{\sigma } \right\rangle  \\  
   & \sum\limits_{i}^{{}}{{}}{{P}_{i}}{{V}_{i}}^{\sigma }=\left\langle {{V}_{i}}^{\sigma } \right\rangle  \\  
  & \sigma =1,...,s \\  
  & \sigma =1,...,s \\  
  & \sum\limits_{i}^{{}}{{}}{{P}_{i}}=1 \\  
  & \sum\limits_{i}^{{}}{{}}{{P}_{i}}=1 \\  
\end{align}</math>
\end{align}</math>


== Prinzip der vorurteilsfreien Schätzung ==
== Prinzip der vorurteilsfreien Schätzung ==
Line 425: Line 518:




:<math>K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln \frac{{{P}_{i}}}{{{P}_{i}}^{0}}</math>
<math>K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln \frac{{{P}_{i}}}{{{P}_{i}}^{0}}</math>




unter dieser Nebenbedingung!!
unter dieser Nebenbedingung !!


Also:
Also:




:<math>\sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}+1+\xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0</math>
<math>\sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}+1+\xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0</math>




mit neuen Lagrange- Multiplikatoren  
mit neuen Lagrange- Multiplikatoren  
:<math>\xi ,{{\xi }_{\sigma }}</math>
<math>\xi ,{{\xi }_{\sigma }}</math>






:<math>\begin{align}
<math>\begin{align}
   & \Rightarrow 1+\xi =-\Xi  \\  
   & \Rightarrow 1+\xi =-\Xi  \\  
  & \sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}-\Xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0 \\  
  & \sum\limits_{i}^{{}}{{}}\left( \ln {{P}_{i}}-\ln {{P}_{i}}^{0}-\Xi +{{\xi }_{\sigma }}{{V}_{i}}^{\sigma } \right)\delta {{P}_{i}}=0 \\  
Line 451: Line 544:




:<math>{{P}_{i}}^{0}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>
<math>{{P}_{i}}^{0}=\exp \left( \Psi -{{\lambda }_{n}}{{M}_{i}}^{n} \right)</math>
   folgt:
   folgt:




:<math>\begin{align}
<math>\begin{align}
   & K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}-{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}-{{P}_{i}}^{0}\ln {{P}_{i}}^{0} \\  
   & K\left( P,{{P}^{0}} \right)=\sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}-{{P}_{i}}\ln {{P}_{i}}^{0}+{{P}_{i}}^{0}\ln {{P}_{i}}^{0}-{{P}_{i}}^{0}\ln {{P}_{i}}^{0} \\  
  & \sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=I(P) \\  
  & \sum\limits_{i}^{{}}{{}}{{P}_{i}}\ln {{P}_{i}}=I(P) \\  
Line 468: Line 561:


Da nun die Mittelwerte  
Da nun die Mittelwerte  
:<math>\left\langle {{M}^{n}} \right\rangle ,{{\left\langle {{M}^{n}} \right\rangle }_{0}}</math>
<math>\left\langle {{M}^{n}} \right\rangle ,{{\left\langle {{M}^{n}} \right\rangle }_{0}}</math>
nicht durch die Zusatzinfo geändert werden muss gelten:
nicht durch die Zusatzinfo geändert werden muss gelten:




:<math>\begin{align}
<math>\begin{align}
   & K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\
   & K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\
  & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\  
  & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right) \\  
Line 481: Line 574:




da diese Mittelwerte nicht durch die Zusatzinfo geändert werden!
da diese Mittelwerte nicht durch die Zusatzinfo geändert werden !




:<math>\begin{align}
<math>\begin{align}
   & \Rightarrow K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\  
   & \Rightarrow K\left( P,{{P}^{0}} \right)=I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}{{M}_{i}}^{n} \right)-\sum\limits_{i}^{{}}{{}}\left( {{P}_{i}}^{0}{{M}_{i}}^{n} \right) \right) \\  
  & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=I(P)-I({{P}^{0}}) \\  
  & =I(P)-I({{P}^{0}})+{{\lambda }_{n}}\left( \left\langle {{M}^{n}} \right\rangle -{{\left\langle {{M}^{n}} \right\rangle }_{0}} \right)=I(P)-I({{P}^{0}}) \\  
Line 490: Line 583:




Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info!
Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !


==Siehe auch==
==Siehe auch==


<references />
< references />
Please note that all contributions to testwiki are considered to be released under the Creative Commons Attribution (see Testwiki:Copyrights for details). If you do not want your writing to be edited mercilessly and redistributed at will, then do not submit it here.
You are also promising us that you wrote this yourself, or copied it from a public domain or similar free resource. Do not submit copyrighted work without permission!
Cancel Editing help (opens in new window)