Editing
Wahrscheinlichkeitsbegriff
Jump to navigation
Jump to search
Warning:
You are not logged in. Your IP address will be publicly visible if you make any edits. If you
log in
or
create an account
, your edits will be attributed to your username, along with other benefits.
Anti-spam check. Do
not
fill this in!
<noinclude>{{Scripthinweis|Thermodynamik|1|1}}</noinclude> ;Ereignis: Messergebnis von Observablen (event) oder fester Mikrozustand (der realisiert wird). Ereignisse bilden einen {{FB|Abelschen Verband}} (Ereignisalgebra) Merke: Ereignisalgebra = Abelscher verband <math>A\acute{\ }</math> mit Mengentheoretischen Verknüpfungen :<math>\cup ,\cap </math> Vereinigung (oder) und Durchschnitt (und) Für A,B,C <math>\in A\acute{\ }</math> gilt: :<math>\begin{align} & A\cup B=B\cup A \\ & A\cap B=B\cap A \\ \end{align}</math> (Kommutativitätsgesetz) :<math>\begin{align} & A\cap \left( B\cap C \right)=\left( A\cap B \right)\cap C \\ & A\cup \left( B\cup C \right)=\left( A\cup B \right)\cup C \\ \end{align}</math> Assoziativität :<math>\begin{align} & A\cap \left( A\cup B \right)=A \\ & A\cup \left( A\cap B \right)=A \\ \end{align}</math> (Verschmelzungsgesetz) :<math>\begin{align} & A\cap \left( B\cup C \right)=\left( A\cap B \right)\cup \left( A\cap C \right) \\ & A\cup \left( B\cap C \right)=\left( A\cup B \right)\cap \left( A\cup C \right) \\ \end{align}</math> Distributivgesetz :<math>\begin{align} & \exists S\Rightarrow A\cap S=A \\ & \exists 0\Rightarrow A\cup 0=A \\ \end{align}</math> Existenz der Eins (sicheres Ereignis) und Existenz des Nullelements: "leeres Ereignis" :<math>\forall A\in A\acute{\ }\exists B\Rightarrow A\cap B=0,A\cup B=S</math> Existenz des Komplements :<math>B=\neg A=\bar{A}</math> ====Induzierte Halbordnung==== :<math>A\subseteq B</math> A impliziert B, falls <math>A\cap B=A</math> Also: menge A liegt in B A und B sind disjunkt, falls <math>A\cap B=0</math> '''Vollständig disjunkte Ereignismenge (sample set)''' :<math>\begin{align} & \left\{ {{A}_{1}},{{A}_{2}},...,{{A}_{n}} \right\}mit \\ & {{A}_{i}}\cap {{A}_{j}}={{A}_{i}}{{\delta }_{ij}} \\ & \bigcup\limits_{i=1}^{n}{{}}{{A}_{i}}=S \\ \end{align}</math> Beispiel: Ereignismenge :<math>\left\{ 1,2,3,4,5,6 \right\}</math> Bemerkung: Diese Menge M ist keine Algebra, da :<math>\begin{align} & A\cup B\notin M \\ & \bar{A}\notin M \\ \end{align}</math> ====Wahrscheinlichkeit==== Empirische Definition :<math>P(A)=\begin{matrix} \lim \\ N\to \infty \\ \end{matrix}\frac{N\left( A \right)}{N}</math> mit :<math>\frac{N\left( A \right)}{N}</math> relative Häufigkeit des Ereignisses A N(A) ist die Zahl der Experimente mit dem Ergebnis A N ist die Zahl der Experimente insgesamt ====axiomatische Definition (Kolmogoroff)==== Sei A<math>\in A\acute{\ }</math> (Boolscher Verband) Sei :<math>S\in A\acute{\ }</math> das sichere Ereignis. Dann erfüllt die '''Wahrscheinlichkeit '''P(A) die Axiome: :<math>\begin{align} & P(A)\ge 0 \\ & P(S)=1 \\ \end{align}</math> Für disjunkte Ereignisse: :<math>A\cap B=0\Rightarrow P(A\cup B)=P(A)+P(B)</math> Folgerung :<math>\begin{align} & P(A)+P(\bar{A})=P(A\cup \bar{A})=1 \\ & \Rightarrow P\left( A \right)\le 1 \\ \end{align}</math> ====Zerlegung in disjunkte Ereignisse==== für beliebige A1, A2: :<math>\begin{align} & {{A}_{1}}\cup {{A}_{2}}={{A}_{1}}+{{{\bar{A}}}_{1}}\cap {{A}_{2}}={{A}_{1}}+{{A}_{2}}-{{A}_{1}}\cap {{A}_{2}} \\ & {{{\bar{A}}}_{1}}\cap {{A}_{2}}={{A}_{2}}-{{A}_{1}}\cap {{A}_{2}} \\ & {{A}_{2}}={{A}_{1}}\cap {{A}_{2}}+{{{\bar{A}}}_{1}}\cap {{A}_{2}} \\ \end{align}</math> Also folgt für Wahrscheinlichkeiten: :<math>\begin{align} & P\left( {{A}_{1}}\cup {{A}_{2}} \right)=P({{A}_{1}})+P({{{\bar{A}}}_{1}}\cap {{A}_{2}})=P({{A}_{1}})+P({{A}_{2}})-P({{A}_{1}}\cap {{A}_{2}}) \\ & P({{A}_{2}})=P({{A}_{1}}\cap {{A}_{2}})+P({{{\bar{A}}}_{1}}\cap {{A}_{2}}) \\ \end{align}</math> Also: :<math>\begin{align} & P\left( {{A}_{1}}\cup {{A}_{2}} \right)+P({{A}_{1}}\cap {{A}_{2}})=P({{A}_{1}})+P({{A}_{2}}) \\ & P({{A}_{1}}\cap {{A}_{2}})\ge 0 \\ & \Rightarrow P\left( {{A}_{1}}\cup {{A}_{2}} \right)\le P({{A}_{1}})+P({{A}_{2}}) \\ \end{align}</math> Speziell :<math>P({{A}_{1}})\le P({{A}_{2}})</math>, falls <math>{{A}_{1}}\subseteq {{A}_{2}}</math> ====bedingte Wahrscheinlichkeit==== Die Bedingte Wahrscheinlichkeit (A unter der Bedingung, dass B), ergibt sich gemäß Also A unter der Bedingung, dass B eingetreten ist! :<math>P\left( A/B \right)=\frac{P\left( A\cap B \right)}{P(B)}</math> Falls A von B unabhängig ist, so gilt: :<math>\begin{align} & P\left( A\cap B \right)=P(A)P(B) \\ & P\left( A/B \right)=\frac{P\left( A\cap B \right)}{P(B)}=P(A) \\ \end{align}</math> Nebenbemerkung, ebenso gilt: :<math>P\left( B/A \right)=\frac{P\left( A\cap B \right)}{P(A)}=P(B)</math> ====Zufallsvariablen==== Eine Zufallsvariable ist gegeben durch # eine Menge M von vollständig disjunkten Ereignissen (sample set) <math>{{X}_{i}}</math> # # eine Wahrscheinlichkeitsverteilung <math>P({{X}_{i}})</math> # über M es gilt die Normierung :<math>\sum\limits_{i}{{}}P({{X}_{i}})=1</math> Definiert man sich dies für eine kontinuierliche Menge, also <math>x\in R</math>, so gilt: :<math>P(x\acute{\ }\le x\le x\acute{\ }+dx\acute{\ })=\rho \left( x\acute{\ } \right)dx\acute{\ }</math> definiert eine '''Wahrscheinlichkeitsdichte oder auch Wahrscheinlichkeitsverteilung '''<math>\rho \left( x \right)</math>. Übergang zu diskreten Ereignissen: :<math>\rho \left( x \right)=\sum\limits_{i=1}^{n}{{}}\delta \left( x-{{x}^{(i)}} \right){{P}_{i}}</math> mit Normierung :<math>\int_{a}^{b}{{}}\rho \left( x \right)dx=1</math> ====Physikalische Interpretation==== Die Wahrscheinlichkeitsverteilung kann man sich realisiert denken durch ein '''Ensemble ''' von vielen äquivalenten Systemen, also durch eine Dichteverteilung <math>\rho \left( x \right)dx</math> der Mitglieder des Ensembles mit Werten zwischen x und x+dx '''Verallgemeinerung auf d Zufallsvariablen''' :<math>\begin{align} & x=\left( {{x}_{1}},{{x}_{2}},...,{{x}_{d}} \right)\in {{R}^{d}} \\ & {{d}^{d}}x=d{{x}_{1}}d{{x}_{2}}...d{{x}_{d}} \\ \end{align}</math> Die Normierung geschieht dann in einem d- Dimensionalen Raum. :<math>\int_{{}}^{{}}{{}}\rho \left( x \right){{d}^{d}}x=1</math> '''Mittelwert (Erwartungswert) '''einer Zufallsvariablen x: :<math>\left\langle x \right\rangle =\int_{{}}^{{}}{{}}\rho \left( x \right)x{{d}^{d}}x</math> für eine beliebige Funktion f(x): :<math>\left\langle f \right\rangle =\int_{{}}^{{}}{{}}\rho \left( x \right)f(x){{d}^{d}}x</math> '''Nebenbemerkung''' Der Mittelwert ist ein lineares Funktional <math>{{f}_{\rho }}:[\to R</math> : :<math>[\in f\to \left\langle f \right\rangle </math> Linearität: :<math>\left\langle {{c}_{1}}{{f}_{1}}+{{c}_{2}}{{f}_{2}} \right\rangle ={{c}_{1}}\left\langle {{f}_{1}} \right\rangle +{{c}_{2}}\left\langle {{f}_{2}} \right\rangle </math> '''Unkorrelierte Zufallsvariable:''' x1 und x2 heißen unkorreliert, falls :<math>\rho \left( {{x}_{1}},{{x}_{2}} \right)={{\rho }_{1}}\left( {{x}_{1}} \right){{\rho }_{2}}\left( {{x}_{2}} \right)</math> Dann gilt: :<math>\left\langle {{x}_{1}}{{x}_{2}} \right\rangle =\left\langle {{x}_{1}} \right\rangle \left\langle {{x}_{2}} \right\rangle </math> Beweis: Merke: In Bezug auf die Wahrscheinlichkeitsverteilungen ist unkorreliert gleichbedeutend mit separabel _> die Phasen werden addiert! Sind die Zustände verschränkt, so können die Phasen nicht addiert werden. Die Einführung einer Symplektik ist nötig! (siehe unten). ====Zusammenhang zwischen Wahrscheinlichkeitsverteilung und Mittelwerten==== Wir verstehen als n.tes Moment einer Wahrscheinlichkeitsverteilung: :<math>{{M}_{n}}:=\left\langle {{x}^{n}} \right\rangle </math> Momentenerzeugende: :<math>\begin{align} & Z(a)=\left\langle {{e}^{ax}} \right\rangle =\left\langle \sum\limits_{0}^{{}}{{}}\frac{{{\left( ax \right)}^{n}}}{n!} \right\rangle =\sum\limits_{0}^{{}}{{}}\frac{{{\left( a \right)}^{n}}}{n!}{{M}_{n}} \\ & {{M}_{n}}={{\left. \frac{{{\partial }^{n}}}{\partial {{a}^{n}}}Z(a) \right|}_{a=0}}={{M}_{n}} \\ \end{align}</math> Durch die Angabe aller nicht verschwindender Momente ist eine Wahrscheinlichkeitsverteilung vollständig festgelegt! ====Verallgemeinerung auf d Zufallsvariablen:==== :<math>{{M}_{n1,n2,...nd}}:=\left\langle {{x}_{1}}^{n1}{{x}_{2}}^{n2}....{{x}_{d}}^{nd} \right\rangle </math> ein Moment der Ordnung :<math>n:=n1+n2+...+nd</math> Momentenerzeugende: :<math>\begin{align} & Z(a)=\left\langle {{e}^{ax}} \right\rangle =\left\langle \sum\limits_{n1,n2...nd=0}^{{}}{{}}\frac{\left( {{\left( {{a}_{1}}x1 \right)}^{n1}}{{\left( {{a}_{2}}x2 \right)}^{n2}}...{{\left( {{a}_{d}}xd \right)}^{nd}} \right)}{n1!n2!...nd!} \right\rangle =\sum\limits_{n1,n2...nd=0}^{{}}{{}}\frac{\left( {{\left( {{a}_{1}} \right)}^{n1}}{{\left( {{a}_{2}} \right)}^{n2}}...{{\left( {{a}_{d}} \right)}^{nd}} \right)}{n1!n2!...nd!}{{M}_{n1..nd}} \\ & a=\left( {{a}_{1}},{{a}_{2}},...,{{a}_{d}} \right) \\ \end{align}</math> '''Kumulante''' :<math>{{C}_{n1,n2,...nd}}:={{\left\langle {{x}_{1}}^{n1}{{x}_{2}}^{n2}....{{x}_{d}}^{nd} \right\rangle }_{C}}</math> ist definiert durch die Kumulantenerzeugende: :<math>\Gamma \left( a \right)=\ln \left\langle {{e}^{ax}} \right\rangle </math> :<math>\begin{align} & {{\left. \frac{{{\partial }^{n1}}....{{\partial }^{nd}}}{\partial {{a}_{1}}^{n1}....{{a}_{d}}^{nd}}\Gamma \left( a \right) \right|}_{a=0}}={{C}_{n1,n2,...nd}} \\ & \Rightarrow \Gamma \left( a \right)=\ln \left\langle {{e}^{ax}} \right\rangle =\sum\limits_{n1...nd}^{{}}{{}}\frac{{{a}_{1}}^{n1}...{{a}_{d}}^{nd}}{n1!...nd!}{{C}_{n1,n2,...nd}} \\ \end{align}</math> '''Eigenschaft''' Kumulanten sind ADDITIV für unkorrelierte Zufallsvariablen (Dies gilt nicht für die Momente!!) '''Beweis: seien x1, x2 unkorreliert:''' :<math>\begin{align} & Z(a)=\left\langle {{e}^{ax}} \right\rangle =\int_{{}}^{{}}{d{{x}_{1}}d{{x}_{2}}\rho \left( {{x}_{1}} \right)}\rho \left( {{x}_{2}} \right){{e}^{{{a}_{1}}{{x}_{1}}}}{{e}^{{{a}_{2}}{{x}_{2}}}}=\left\langle {{e}^{{{a}_{1}}{{x}_{1}}}} \right\rangle \left\langle {{e}^{{{a}_{2}}{{x}_{2}}}} \right\rangle \\ & \Rightarrow \Gamma \left( a \right)=\ln Z(a)=\ln \left\langle {{e}^{{{a}_{1}}{{x}_{1}}}} \right\rangle +\ln \left\langle {{e}^{{{a}_{2}}{{x}_{2}}}} \right\rangle =\Gamma \left( {{a}_{1}} \right)+\Gamma \left( {{a}_{2}} \right) \\ & {{\left. \frac{{{\partial }^{n}}}{\partial {{a}^{n}}}\Gamma \left( a \right) \right|}_{a=0}}\Rightarrow {{\left\langle {{\left( {{x}_{1}}+{{x}_{2}} \right)}^{n}} \right\rangle }_{C}}={{\left\langle {{x}^{n}} \right\rangle }_{C}}={{\left\langle {{x}_{1}}^{n} \right\rangle }_{C}}+{{\left\langle {{x}_{2}}^{n} \right\rangle }_{C}} \\ \end{align}</math> '''Fluktuation:''' :<math>\Delta x:=x-\left\langle x \right\rangle </math> mit :<math>\left\langle \Delta x \right\rangle =0</math> Bildung der Varianz: :<math>\left\langle {{\left( \Delta x \right)}^{2}} \right\rangle =\left\langle {{\left( x-\left\langle x \right\rangle \right)}^{2}} \right\rangle =\left\langle {{x}^{2}} \right\rangle -2\left\langle x \right\rangle \left\langle x \right\rangle +{{\left\langle x \right\rangle }^{2}}=\left\langle {{x}^{2}} \right\rangle -{{\left\langle x \right\rangle }^{2}}</math> Als Maß für die Breite einer Verteilung '''Korrelationsmatrix:''' :<math>\left\langle \Delta {{x}_{k}}\Delta {{x}_{l}} \right\rangle =\left\langle {{x}_{k}}{{x}_{l}} \right\rangle -\left\langle {{x}_{k}} \right\rangle \left\langle {{x}_{l}} \right\rangle </math> Nichtdiagonalelemente verschwinden für unkorrelierte Zufallsvariablen. Denn dann: separieren die Momente der WSK- Verteilung! Siehe oben * Korrelationsmatrix beschreibt die qm- Korrelationen über ihre Außerdiagonalelemente ====Zusammenhang zwischen Kumulanten und Momenten:==== :<math>\begin{align} & {{\left\langle x \right\rangle }_{C}}=\left\langle x \right\rangle \\ & {{\left\langle {{x}^{2}} \right\rangle }_{C}}=\left\langle {{\left( \Delta x \right)}^{2}} \right\rangle =\left\langle {{x}^{2}} \right\rangle -{{\left\langle x \right\rangle }^{2}} \\ & {{\left\langle {{x}^{3}} \right\rangle }_{C}}=\left\langle {{\left( \Delta x \right)}^{3}} \right\rangle \\ & {{\left\langle {{x}^{4}} \right\rangle }_{C}}=\left\langle {{\left( \Delta x \right)}^{4}} \right\rangle -3{{\left\langle {{\left( \Delta x \right)}^{2}} \right\rangle }^{2}} \\ \end{align}</math> ====Gaußverteilung / Normalverteilung==== :<math>\begin{align} & \rho (x)=A\exp \left( -\frac{{{\left( x-\left\langle x \right\rangle \right)}^{2}}}{2{{\sigma }^{2}}} \right) \\ & {{\sigma }^{2}}:=\left\langle {{\left( \Delta x \right)}^{2}} \right\rangle ={{\left\langle {{x}^{2}} \right\rangle }_{C}} \\ \end{align}</math> Mit Sigma als Standardabweichung Normierung: :<math>\begin{align} & \int_{-\infty }^{\infty }{{}}dx\rho (x)=A\sigma \sqrt{2}\int_{-\infty }^{\infty }{{}}du\exp \left( -{{u}^{2}} \right)=!=1 \\ & u:=\frac{x}{\sigma \sqrt{2}} \\ \end{align}</math> Wegen: :<math>\begin{align} & \int_{-\infty }^{\infty }{{}}du\exp \left( -{{u}^{2}} \right)=\sqrt{\pi } \\ & \Rightarrow A=\frac{1}{\sigma \sqrt{2\pi }} \\ \end{align}</math> Nebenbemerkung, die Gaußverteilung <math>\rho (x)</math> ist bestimmt durch <math>{{\left\langle x \right\rangle }_{C}},{{\left\langle {{x}^{2}} \right\rangle }_{C}}</math>. Alle höheren Kumulanten verschwinden!
Summary:
Please note that all contributions to testwiki are considered to be released under the Creative Commons Attribution (see
Testwiki:Copyrights
for details). If you do not want your writing to be edited mercilessly and redistributed at will, then do not submit it here.
You are also promising us that you wrote this yourself, or copied it from a public domain or similar free resource.
Do not submit copyrighted work without permission!
Cancel
Editing help
(opens in new window)
Templates used on this page:
Template:Anker
(
edit
)
Template:Anker/code
(
edit
)
Template:FB
(
edit
)
Template:ScriptProf
(
edit
)
Template:Scripthinweis
(
edit
)
Navigation menu
Personal tools
Not logged in
Talk
Contributions
Log in
Namespaces
Page
Discussion
English
Views
Read
Edit
Edit source
View history
More
Search
Navigation
Main page
Recent changes
Random page
Physikerwelt
Tools
What links here
Related changes
Special pages
Page information
In other projects