Editing Übersicht:Thermodynamik
Jump to navigation
Jump to search
The edit can be undone. Please check the comparison below to verify that this is what you want to do, and then publish the changes below to finish undoing the edit.
Latest revision | Your text | ||
Line 1: | Line 1: | ||
==klassische Mechanik== | ==klassische Mechanik== | ||
* Prinzip der Vorurteilsfreien Schätzung in der klassischen Mechanik | * Prinzip der Vorurteilsfreien Schätzung in der klassischen Mechanik | ||
--> gleiche a –priori Wahrscheinlichkeiten | |||
* Hamiltonfunktion mit Hamiltongleichungen | * Hamiltonfunktion mit Hamiltongleichungen | ||
* Lösungen Trajektorien im Phasenraum | * Lösungen Trajektorien im Phasenraum | ||
==Satz von Liouville== | ==Satz von Liouville== | ||
Das Phasenraumvolumen ist invariant unter Zeitentwicklung | Das Phasenraumvolumen ist invariant unter Zeitentwicklung | ||
--> gleiche Phasenvolumina ^= gleiche a-priori Wahrscheinlichkeit bleibt bestehen | |||
--> Informationsmaß über Microzustand kann mit der zeit nicht zunehmen <math>I(t_1)\ge I(t_2)</math> mit <math>t_1 < t_2</math> | |||
==Zustand== | ==Zustand== | ||
<math>\left\langle {{M}^{\nu }} \right\rangle =\int{d\xi \rho \left( \xi \right){{M}^{\nu }}\left( \xi \right)}</math> | |||
(thermodynamischer Zustand durch Mittelwerte der Phasenraumfunktionen | (thermodynamischer Zustand durch Mittelwerte der Phasenraumfunktionen | ||
<math>\rho \left( \xi \right)=\exp \left( \psi -{{\lambda }_{\nu }}{{M}^{\nu }}\left( \xi \right) \right)={{z}^{-1}}\exp \left( -{{\lambda }_{\nu }}{{M}^{\nu }}\left( \xi \right) \right)</math> | |||
mit | |||
<math>z={{\operatorname{e}}^{-\psi }}=\int{{{e}^{-{{\lambda }_{\nu }}{{M}^{\nu }}\left( \xi \right)}}d\xi }</math> | |||
==Shannon-Information== | ==Shannon-Information== | ||
*<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}} \le 0</math> | *<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}} \le 0</math> | ||
*Information: Welches Ereignis tritt ein? | *Information: Welches Ereignis tritt ein? | ||
*Wie viel weiß ich von meinem System? | *Wie viel weiß ich von meinem System? | ||
*'''Maximum'''<math>I\left( P \right)=0</math> | *'''Maximum'''<math>I\left( P \right)=0</math> --> schafte Verteilung<math>{{P}_{i}}={{\delta }_{ij}}</math> | ||
===minimum=== | ===minimum=== | ||
*Maximum des Nichtwissens entspricht '''minimaler''' Shannon-Information -- ><math>I\left( P \right)<0</math> Variation der <math>P_i</math> um<math>\delta {{P}_{i}}</math> | *Maximum des Nichtwissens entspricht '''minimaler''' Shannon-Information -- ><math>I\left( P \right)<0</math> Variation der <math>P_i</math> um<math>\delta {{P}_{i}}</math> | ||
Line 22: | Line 24: | ||
mit 1 Nebendbedingung <math>\sum\limits_{i}{{{P}_{i}}}=1</math> führt unter Verwendung eines Lagrange-Parameters<math>\lambda</math> zu | mit 1 Nebendbedingung <math>\sum\limits_{i}{{{P}_{i}}}=1</math> führt unter Verwendung eines Lagrange-Parameters<math>\lambda</math> zu | ||
<math>I\left( P \right)=\sum{{{P}_{i}}\ln {{P}_{i}}+\lambda \left( {{P}_{i}}-1 \right)}</math> | |||
die Variation, also <math>\delta I\left( P \right)=\sum{\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}}</math> | die Variation, also <math>\delta I\left( P \right)=\sum{\left( \ln {{P}_{i}}+1 \right)\delta {{P}_{i}}}</math> | ||
Line 28: | Line 30: | ||
lässt keine freien Parameter zu also erhält man N Gleichungen | lässt keine freien Parameter zu also erhält man N Gleichungen | ||
<math>\left( \ln {{P}_{i}} \right)=- \left( \lambda +1 \right)=\text{const.}</math> | |||
so erhält man wegen der Normierung (<math>\sum\limits_{i}{{{P}_{i}}}=1</math>) die | so erhält man wegen der Normierung (<math>\sum\limits_{i}{{{P}_{i}}}=1</math>) die | ||
Line 56: | Line 58: | ||
==Fundamentalbeziehung== | ==Fundamentalbeziehung== | ||
*durch eine Legenderetransformation <math>I\left( P \right)\to I\left( \lambda \right)</math> | *durch eine Legenderetransformation <math>I\left( P \right)\to I\left( \lambda \right)</math> | ||
<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}}=\sum\limits_{i}{{{P}_{i}}\ln \exp \left( \psi -{{\lambda }_{\nu }}M_{i}^{\nu } \right)}=\psi \underbrace{\sum\limits_{i}{{{P}_{i}}}}_{1}-{{\lambda }_{\nu }}\sum\limits_{i}{{{P}_{i}}M_{i}^{\nu }}=\psi -{{\lambda }_{\nu }}\left\langle {{M}^{\nu }} \right\rangle </math> | |||
* extensive Parameter <math>\left\langle {{M}^{\nu }} \right\rangle | * extensive Parameter <math>\left\langle {{M}^{\nu }} \right\rangle | ||
={{\partial }_{{{\lambda }_{\nu }}}}\psi \left( {{\lambda }_{\nu }} \right) | ={{\partial }_{{{\lambda }_{\nu }}}}\psi \left( {{\lambda }_{\nu }} \right) | ||
={{\partial }_{{{\lambda }_{\nu }}}}\left( -\ln \sum{\exp \left( -{{\lambda }_{\mu }}M_{i}^{\mu } \right)} \right)</math> | ={{\partial }_{{{\lambda }_{\nu }}}}\left( -\ln \sum{\exp \left( -{{\lambda }_{\mu }}M_{i}^{\mu } \right)} \right)</math> | ||
* intensive Parameter <math>{{\lambda }_{\nu }}=-{{\partial }_{\left\langle {{M}^{\nu }} \right\rangle }}I</math> | * intensive Parameter <math>{{\lambda }_{\nu }}=-{{\partial }_{\left\langle {{M}^{\nu }} \right\rangle }}I</math> | ||
<math>\to dI=-{{\lambda }_{\nu }}d\left\langle {{M}^{\nu }} \right\rangle </math> | |||
==Beziehungen== | ==Beziehungen== | ||
*<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}}=Tr\left( \hat{\rho }\ln \hat{\rho } \right)</math> | *<math>I\left( P \right)=\sum\limits_{i}{{{P}_{i}}\ln {{P}_{i}}}=Tr\left( \hat{\rho }\ln \hat{\rho } \right)</math> | ||
Line 67: | Line 69: | ||
** Entropie = fehlende Kenntnis | ** Entropie = fehlende Kenntnis | ||
** <math>S\left( \left\langle {{M}^{\nu }} \right\rangle \right)=-{{k}_{B}}I\left( \left\langle {{M}^{\nu }} \right\rangle \right)</math> | ** <math>S\left( \left\langle {{M}^{\nu }} \right\rangle \right)=-{{k}_{B}}I\left( \left\langle {{M}^{\nu }} \right\rangle \right)</math> | ||
** da Shannoninformation (I) nach letzer Messung nicht zunehmen kann, | ** da Shannoninformation (I) nach letzer Messung nicht zunehmen kann, --> kann Entropie (S) nicht abnehmen | ||
** <math>S=-kI=-k\operatorname{Tr}\left( \hat{\rho }\ln \left( {\hat{\rho }} \right) \right)=-k\left( \psi -{{\lambda }_{\nu }}{{M}^{\nu }} \right)=k\left( {{\lambda }_{\nu }}{{M}^{\nu }}-\psi \left( \left\{ {{\lambda }_{\mu }} \right\} \right) \right)</math> | ** <math>S=-kI=-k\operatorname{Tr}\left( \hat{\rho }\ln \left( {\hat{\rho }} \right) \right)=-k\left( \psi -{{\lambda }_{\nu }}{{M}^{\nu }} \right)=k\left( {{\lambda }_{\nu }}{{M}^{\nu }}-\psi \left( \left\{ {{\lambda }_{\mu }} \right\} \right) \right)</math> | ||
** <math>k{{\lambda }_{\nu }}={{\partial }_{\left\langle {{M}^{\nu }} \right\rangle }}S</math> pähnomenologische Definition der intensiven Variabelen | ** <math>k{{\lambda }_{\nu }}={{\partial }_{\left\langle {{M}^{\nu }} \right\rangle }}S</math> pähnomenologische Definition der intensiven Variabelen | ||
Line 76: | Line 78: | ||
** <math>1=\sum{{{P}_{i}}}</math> | ** <math>1=\sum{{{P}_{i}}}</math> | ||
** <math>{{P}_{i}}={{P}_{i}}'\Rightarrow K=0</math> (kein Gewinn) | ** <math>{{P}_{i}}={{P}_{i}}'\Rightarrow K=0</math> (kein Gewinn) | ||
* Informationsgewinn ^= Änderung der Shannon Information | * Informationsgewinn ^= Änderung der Shannon Information | ||
* Mit Dichtematrix <math>K\left( \rho ,{{\rho }^{0}} \right)=\operatorname{Tr}\left( \hat{\rho }\ln \frac{{\hat{\rho }}}{{{{\hat{\rho }}}^{0}}} \right)=\operatorname{Tr}\left( \hat{\rho }\left( \ln \hat{\rho }-\ln {{{\hat{\rho }}}^{0}} \right) \right)=I\left( {\hat{\rho }} \right)-I\left( {{{\hat{\rho }}}^{0}} \right)-\operatorname{Tr}\left( \hat{\rho }-{{{\hat{\rho }}}^{0}} \right)\ln \left( {{{\hat{\rho }}}^{0}} \right)</math> | * Mit Dichtematrix <math>K\left( \rho ,{{\rho }^{0}} \right)=\operatorname{Tr}\left( \hat{\rho }\ln \frac{{\hat{\rho }}}{{{{\hat{\rho }}}^{0}}} \right)=\operatorname{Tr}\left( \hat{\rho }\left( \ln \hat{\rho }-\ln {{{\hat{\rho }}}^{0}} \right) \right)=I\left( {\hat{\rho }} \right)-I\left( {{{\hat{\rho }}}^{0}} \right)-\operatorname{Tr}\left( \hat{\rho }-{{{\hat{\rho }}}^{0}} \right)\ln \left( {{{\hat{\rho }}}^{0}} \right)</math> | ||
* Für Druckensemble <math>{{{\hat{\rho }}}^{0}}=\exp \left( {{\psi }^{0}}-{{\beta }^{0}}\left( H+{{p}^{0}}V \right) \right)</math> und <math>\rho</math> nicht im Gleichgewichtszustand folgt <math>K\left( \rho ,{{\rho }^{0}} \right)=\frac{S-{{S}^{0}}}{{{T}^{0}}}+\frac{U-{{U}^{0}}+{{p}^{0}}\left( V-{{V}^{0}} \right)}{k{{T}^{0}}}</math> | * Für Druckensemble <math>{{{\hat{\rho }}}^{0}}=\exp \left( {{\psi }^{0}}-{{\beta }^{0}}\left( H+{{p}^{0}}V \right) \right)</math> und <math>\rho</math> nicht im Gleichgewichtszustand folgt <math>K\left( \rho ,{{\rho }^{0}} \right)=\frac{S-{{S}^{0}}}{{{T}^{0}}}+\frac{U-{{U}^{0}}+{{p}^{0}}\left( V-{{V}^{0}} \right)}{k{{T}^{0}}}</math> | ||
* mit Energie <math>\Lambda</math> <math>K\left( \rho ,{{\rho }^{0}} \right)=\frac{\Lambda }{k{{T}^{0}}}</math> | * mit Energie <math>\Lambda</math> <math>K\left( \rho ,{{\rho }^{0}} \right)=\frac{\Lambda }{k{{T}^{0}}}</math> | ||
* der Informationsgewinn kann nur abnehmen <math>{{d}_{t}}K\left( \rho ,{{\rho }^{0}} \right)=\frac{{{d}_{t}}\Lambda }{k{{T}^{0}}}</math> mit <math>\nu =-\frac{1}{T}{{d}_{t}}\Lambda </math> | * der Informationsgewinn kann nur abnehmen <math>{{d}_{t}}K\left( \rho ,{{\rho }^{0}} \right)=\frac{{{d}_{t}}\Lambda }{k{{T}^{0}}}</math> mit <math>\nu =-\frac{1}{T}{{d}_{t}}\Lambda </math> | ||
* | * --> die Entropieproduktion ist ststs <math>\ge 0</math> | ||
[[Kategorie:Thermodynamik]] | [[Kategorie:Thermodynamik]] |