Thermodynamikvorlesung von Prof. Dr. E. Schöll, PhD
65px|Kein GFDL
|
Der Artikel Wahrscheinlichkeitsbegriff basiert auf der Vorlesungsmitschrift von Franz- Josef Schmitt des 1.Kapitels (Abschnitt 1) der Thermodynamikvorlesung von Prof. Dr. E. Schöll, PhD.
|
{{#set:Urheber=Prof. Dr. E. Schöll, PhD|Inhaltstyp=Script|Kapitel=1|Abschnitt=1}}
Kategorie:Thermodynamik
__SHOWFACTBOX__
- Ereignis
- Messergebnis von Observablen (event) oder fester Mikrozustand (der realisiert wird).
Ereignisse bilden einen Abelschen Verband{{#set:Fachbegriff=Abelschen Verband|Index=Abelschen Verband}} (Ereignisalgebra)
Merke: Ereignisalgebra = Abelscher verband
mit Mengentheoretischen Verknüpfungen
![{\displaystyle \cup ,\cap }](https://wikimedia.org/api/rest_v1/media/math/render/svg/25c6fbed04e249ae6a33358e6b8921b2b8c4d3c2)
Vereinigung (oder) und Durchschnitt (und)
Für A,B,C
gilt:
![{\displaystyle {\begin{aligned}&A\cup B=B\cup A\\&A\cap B=B\cap A\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/12c03fc425fec4bb6539a9232de9a6cce998edd9)
(Kommutativitätsgesetz)
![{\displaystyle {\begin{aligned}&A\cap \left(B\cap C\right)=\left(A\cap B\right)\cap C\\&A\cup \left(B\cup C\right)=\left(A\cup B\right)\cup C\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f8ac30298e7a1de9548ce58e0de3f972bbc23fbe)
Assoziativität
![{\displaystyle {\begin{aligned}&A\cap \left(A\cup B\right)=A\\&A\cup \left(A\cap B\right)=A\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/134b5d7a8fc1e8c11134a1493f1e1a834ab2f41c)
(Verschmelzungsgesetz)
![{\displaystyle {\begin{aligned}&A\cap \left(B\cup C\right)=\left(A\cap B\right)\cup \left(A\cap C\right)\\&A\cup \left(B\cap C\right)=\left(A\cup B\right)\cap \left(A\cup C\right)\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e521b4be01973619701a2445926c065ed1551660)
Distributivgesetz
![{\displaystyle {\begin{aligned}&\exists S\Rightarrow A\cap S=A\\&\exists 0\Rightarrow A\cup 0=A\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bed6a8f38fbfecb3c789c823461e0a5ade1c4d26)
Existenz der Eins (sicheres Ereignis) und Existenz des Nullelements: "leeres Ereignis"
![{\displaystyle \forall A\in A{\acute {\ }}\exists B\Rightarrow A\cap B=0,A\cup B=S}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a702827c870040d37bef971fab7598d74c53eda4)
Existenz des Komplements
![{\displaystyle B=\neg A={\bar {A}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b485b17aff501a496805522c7e1322608db2b917)
A impliziert B, falls ![{\displaystyle A\cap B=A}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a6cd897334b251544a95c9f7d226eeabba68c100)
Also: menge A liegt in B
A und B sind disjunkt, falls
Vollständig disjunkte Ereignismenge (sample set)
![{\displaystyle {\begin{aligned}&\left\{{{A}_{1}},{{A}_{2}},...,{{A}_{n}}\right\}mit\\&{{A}_{i}}\cap {{A}_{j}}={{A}_{i}}{{\delta }_{ij}}\\&\bigcup \limits _{i=1}^{n}{}{{A}_{i}}=S\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5e09af6c268e8808997098b1598c6fc6cd40bbcf)
Beispiel:
Ereignismenge
![{\displaystyle \left\{1,2,3,4,5,6\right\}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/249d1c19f5103f97d853274932c67a1925fe06c6)
Bemerkung: Diese Menge M ist keine Algebra, da
![{\displaystyle {\begin{aligned}&A\cup B\notin M\\&{\bar {A}}\notin M\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/04f232a04b71ee9930a926e4d8198c38301172fe)
Empirische Definition
![{\displaystyle P(A)={\begin{matrix}\lim \\N\to \infty \\\end{matrix}}{\frac {N\left(A\right)}{N}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a2979f53ae94287991b3500181228e86ad23b833)
mit
![{\displaystyle {\frac {N\left(A\right)}{N}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6250c39708c1be6f29a57214ed4c72275eb83c71)
relative Häufigkeit des Ereignisses A
N(A) ist die Zahl der Experimente mit dem Ergebnis A
N ist die Zahl der Experimente insgesamt
axiomatische Definition (Kolmogoroff)[edit | edit source]
Sei A
(Boolscher Verband)
Sei
![{\displaystyle S\in A{\acute {\ }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/67966d4d28cf79f157b748d0c4abde290f296216)
das sichere Ereignis.
Dann erfüllt die Wahrscheinlichkeit P(A)
die Axiome:
![{\displaystyle {\begin{aligned}&P(A)\geq 0\\&P(S)=1\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c83148475efc5420f4b0f1ef8b79d8af1fdedf95)
Für disjunkte Ereignisse:
![{\displaystyle A\cap B=0\Rightarrow P(A\cup B)=P(A)+P(B)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/eabbaffa74a1f26f2faa61587682f26ea6036223)
Folgerung
![{\displaystyle {\begin{aligned}&P(A)+P({\bar {A}})=P(A\cup {\bar {A}})=1\\&\Rightarrow P\left(A\right)\leq 1\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0391db2cfd532c9bbd4819546bce9d4f802134eb)
Zerlegung in disjunkte Ereignisse[edit | edit source]
für beliebige A1, A2:
![{\displaystyle {\begin{aligned}&{{A}_{1}}\cup {{A}_{2}}={{A}_{1}}+{{\bar {A}}_{1}}\cap {{A}_{2}}={{A}_{1}}+{{A}_{2}}-{{A}_{1}}\cap {{A}_{2}}\\&{{\bar {A}}_{1}}\cap {{A}_{2}}={{A}_{2}}-{{A}_{1}}\cap {{A}_{2}}\\&{{A}_{2}}={{A}_{1}}\cap {{A}_{2}}+{{\bar {A}}_{1}}\cap {{A}_{2}}\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b894eba64186b780178a3cdb87aff5b182bc5a17)
Also folgt für Wahrscheinlichkeiten:
![{\displaystyle {\begin{aligned}&P\left({{A}_{1}}\cup {{A}_{2}}\right)=P({{A}_{1}})+P({{\bar {A}}_{1}}\cap {{A}_{2}})=P({{A}_{1}})+P({{A}_{2}})-P({{A}_{1}}\cap {{A}_{2}})\\&P({{A}_{2}})=P({{A}_{1}}\cap {{A}_{2}})+P({{\bar {A}}_{1}}\cap {{A}_{2}})\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/99f9b22fc1116d6c1c64d882cc4c6030ddb3b47a)
Also:
![{\displaystyle {\begin{aligned}&P\left({{A}_{1}}\cup {{A}_{2}}\right)+P({{A}_{1}}\cap {{A}_{2}})=P({{A}_{1}})+P({{A}_{2}})\\&P({{A}_{1}}\cap {{A}_{2}})\geq 0\\&\Rightarrow P\left({{A}_{1}}\cup {{A}_{2}}\right)\leq P({{A}_{1}})+P({{A}_{2}})\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7e5680fc0822e25504f61761911dd4c7132025db)
Speziell
,
falls
bedingte Wahrscheinlichkeit[edit | edit source]
Die Bedingte Wahrscheinlichkeit (A unter der Bedingung, dass B), ergibt sich gemäß
Also A unter der Bedingung, dass B eingetreten ist!
![{\displaystyle P\left(A/B\right)={\frac {P\left(A\cap B\right)}{P(B)}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f4a7648f50c266825fe2ffe1be5d1ab950bbea86)
Falls A von B unabhängig ist, so gilt:
![{\displaystyle {\begin{aligned}&P\left(A\cap B\right)=P(A)P(B)\\&P\left(A/B\right)={\frac {P\left(A\cap B\right)}{P(B)}}=P(A)\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e9652aeddc619328ca3975ccb08e2002508fccff)
Nebenbemerkung, ebenso gilt:
![{\displaystyle P\left(B/A\right)={\frac {P\left(A\cap B\right)}{P(A)}}=P(B)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0f3f2c384b3cb9d73a83dfd50245624d633c3082)
Eine Zufallsvariable ist gegeben durch
- eine Menge M von vollständig disjunkten Ereignissen (sample set)
![{\displaystyle {{X}_{i}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4a3e1bf1b2a093d967c59b7c6ac0bee26ef02241)
- eine Wahrscheinlichkeitsverteilung
![{\displaystyle P({{X}_{i}})}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8c563e93a7d788ea3b0a0b50d299ebbd92f0568c)
- über M
es gilt die Normierung
![{\displaystyle \sum \limits _{i}{}P({{X}_{i}})=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cadb1d9e1a3f1c094f049e5ad725a631e89cece9)
Definiert man sich dies für eine kontinuierliche Menge, also
,
so gilt:
![{\displaystyle P(x{\acute {\ }}\leq x\leq x{\acute {\ }}+dx{\acute {\ }})=\rho \left(x{\acute {\ }}\right)dx{\acute {\ }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d9a9aaac30398b492df6aba2457b8dbf99b20c39)
definiert eine Wahrscheinlichkeitsdichte oder auch Wahrscheinlichkeitsverteilung
.
Übergang zu diskreten Ereignissen:
![{\displaystyle \rho \left(x\right)=\sum \limits _{i=1}^{n}{}\delta \left(x-{{x}^{(i)}}\right){{P}_{i}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fc34b08e1d006c8b17e3f321045ce6800a935010)
mit Normierung
![{\displaystyle \int _{a}^{b}{}\rho \left(x\right)dx=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e81dcfc525160a2cc64e6664b8d8e9c185eedec2)
Physikalische Interpretation[edit | edit source]
Die Wahrscheinlichkeitsverteilung kann man sich realisiert denken durch ein Ensemble von vielen äquivalenten Systemen, also durch eine Dichteverteilung
der Mitglieder des Ensembles mit Werten zwischen x und x+dx
Verallgemeinerung auf d Zufallsvariablen
![{\displaystyle {\begin{aligned}&x=\left({{x}_{1}},{{x}_{2}},...,{{x}_{d}}\right)\in {{R}^{d}}\\&{{d}^{d}}x=d{{x}_{1}}d{{x}_{2}}...d{{x}_{d}}\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/83abf2ac8360e2fdb8f6eaf52649b8181b03b809)
Die Normierung geschieht dann in einem d- Dimensionalen Raum.
![{\displaystyle \int _{}^{}{}\rho \left(x\right){{d}^{d}}x=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/386497a0ab4738ec1d7821284ae8db23257b3e7d)
Mittelwert (Erwartungswert) einer Zufallsvariablen x:
![{\displaystyle \left\langle x\right\rangle =\int _{}^{}{}\rho \left(x\right)x{{d}^{d}}x}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ab5a40c96ab2bf1608e255ccaa25ca7e7d7109da)
für eine beliebige Funktion f(x):
![{\displaystyle \left\langle f\right\rangle =\int _{}^{}{}\rho \left(x\right)f(x){{d}^{d}}x}](https://wikimedia.org/api/rest_v1/media/math/render/svg/81e12d07eb0af660af783127a736c16a41a1b46a)
Nebenbemerkung
Der Mittelwert ist ein lineares Funktional
![{\displaystyle [\in f\to \left\langle f\right\rangle }](https://wikimedia.org/api/rest_v1/media/math/render/svg/7b0d40beb819fdb0bcfbf3b26d8fe7aff32a3bd2)
Linearität:
![{\displaystyle \left\langle {{c}_{1}}{{f}_{1}}+{{c}_{2}}{{f}_{2}}\right\rangle ={{c}_{1}}\left\langle {{f}_{1}}\right\rangle +{{c}_{2}}\left\langle {{f}_{2}}\right\rangle }](https://wikimedia.org/api/rest_v1/media/math/render/svg/6a317b0249ce659fea7e0e9a28eee63bca0785f8)
Unkorrelierte Zufallsvariable:
x1 und x2 heißen unkorreliert, falls
![{\displaystyle \rho \left({{x}_{1}},{{x}_{2}}\right)={{\rho }_{1}}\left({{x}_{1}}\right){{\rho }_{2}}\left({{x}_{2}}\right)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ddff3b22be00ea9ccac80b12df32ddc1fd55290c)
Dann gilt:
![{\displaystyle \left\langle {{x}_{1}}{{x}_{2}}\right\rangle =\left\langle {{x}_{1}}\right\rangle \left\langle {{x}_{2}}\right\rangle }](https://wikimedia.org/api/rest_v1/media/math/render/svg/9d6704c2314126e0912509beee9376d17835f1b1)
Beweis:
Merke: In Bezug auf die Wahrscheinlichkeitsverteilungen ist unkorreliert gleichbedeutend mit separabel _> die Phasen werden addiert!
Sind die Zustände verschränkt, so können die Phasen nicht addiert werden.
Die Einführung einer Symplektik ist nötig! (siehe unten).
Zusammenhang zwischen Wahrscheinlichkeitsverteilung und Mittelwerten[edit | edit source]
Wir verstehen als n.tes Moment einer Wahrscheinlichkeitsverteilung:
![{\displaystyle {{M}_{n}}:=\left\langle {{x}^{n}}\right\rangle }](https://wikimedia.org/api/rest_v1/media/math/render/svg/d98bdd2d73a406aa82a0b00a9921ecd909227489)
Momentenerzeugende:
![{\displaystyle {\begin{aligned}&Z(a)=\left\langle {{e}^{ax}}\right\rangle =\left\langle \sum \limits _{0}^{}{}{\frac {{\left(ax\right)}^{n}}{n!}}\right\rangle =\sum \limits _{0}^{}{}{\frac {{\left(a\right)}^{n}}{n!}}{{M}_{n}}\\&{{M}_{n}}={{\left.{\frac {{\partial }^{n}}{\partial {{a}^{n}}}}Z(a)\right|}_{a=0}}={{M}_{n}}\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/97b594e0e5ce1b5482f61fcea279580ee96c74a6)
Durch die Angabe aller nicht verschwindender Momente ist eine Wahrscheinlichkeitsverteilung vollständig festgelegt!
Verallgemeinerung auf d Zufallsvariablen:[edit | edit source]
![{\displaystyle {{M}_{n1,n2,...nd}}:=\left\langle {{x}_{1}}^{n1}{{x}_{2}}^{n2}....{{x}_{d}}^{nd}\right\rangle }](https://wikimedia.org/api/rest_v1/media/math/render/svg/9959ef5e43e268e19653ede858a6a3599be87829)
ein Moment der Ordnung
![{\displaystyle n:=n1+n2+...+nd}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c7c32dbd1b79913df2d1170bbb01193b44c94feb)
Momentenerzeugende:
![{\displaystyle {\begin{aligned}&Z(a)=\left\langle {{e}^{ax}}\right\rangle =\left\langle \sum \limits _{n1,n2...nd=0}^{}{}{\frac {\left({{\left({{a}_{1}}x1\right)}^{n1}}{{\left({{a}_{2}}x2\right)}^{n2}}...{{\left({{a}_{d}}xd\right)}^{nd}}\right)}{n1!n2!...nd!}}\right\rangle =\sum \limits _{n1,n2...nd=0}^{}{}{\frac {\left({{\left({{a}_{1}}\right)}^{n1}}{{\left({{a}_{2}}\right)}^{n2}}...{{\left({{a}_{d}}\right)}^{nd}}\right)}{n1!n2!...nd!}}{{M}_{n1..nd}}\\&a=\left({{a}_{1}},{{a}_{2}},...,{{a}_{d}}\right)\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/10a9022f6705c8d89eacfb70b4826b670bc93865)
Kumulante
![{\displaystyle {{C}_{n1,n2,...nd}}:={{\left\langle {{x}_{1}}^{n1}{{x}_{2}}^{n2}....{{x}_{d}}^{nd}\right\rangle }_{C}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dca2a9dacdb6fe2040b94526bb8759eeaf346b45)
ist definiert durch die Kumulantenerzeugende:
![{\displaystyle \Gamma \left(a\right)=\ln \left\langle {{e}^{ax}}\right\rangle }](https://wikimedia.org/api/rest_v1/media/math/render/svg/586e483fc9b08a53a431bec4efeb81d93bc5e2ae)
![{\displaystyle {\begin{aligned}&{{\left.{\frac {{{\partial }^{n1}}....{{\partial }^{nd}}}{\partial {{a}_{1}}^{n1}....{{a}_{d}}^{nd}}}\Gamma \left(a\right)\right|}_{a=0}}={{C}_{n1,n2,...nd}}\\&\Rightarrow \Gamma \left(a\right)=\ln \left\langle {{e}^{ax}}\right\rangle =\sum \limits _{n1...nd}^{}{}{\frac {{{a}_{1}}^{n1}...{{a}_{d}}^{nd}}{n1!...nd!}}{{C}_{n1,n2,...nd}}\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bbe6534dcc08899678a27d8fd96590dd79dc612d)
Eigenschaft
Kumulanten sind ADDITIV für unkorrelierte Zufallsvariablen
(Dies gilt nicht für die Momente!!)
Beweis: seien x1, x2 unkorreliert:
![{\displaystyle {\begin{aligned}&Z(a)=\left\langle {{e}^{ax}}\right\rangle =\int _{}^{}{d{{x}_{1}}d{{x}_{2}}\rho \left({{x}_{1}}\right)}\rho \left({{x}_{2}}\right){{e}^{{{a}_{1}}{{x}_{1}}}}{{e}^{{{a}_{2}}{{x}_{2}}}}=\left\langle {{e}^{{{a}_{1}}{{x}_{1}}}}\right\rangle \left\langle {{e}^{{{a}_{2}}{{x}_{2}}}}\right\rangle \\&\Rightarrow \Gamma \left(a\right)=\ln Z(a)=\ln \left\langle {{e}^{{{a}_{1}}{{x}_{1}}}}\right\rangle +\ln \left\langle {{e}^{{{a}_{2}}{{x}_{2}}}}\right\rangle =\Gamma \left({{a}_{1}}\right)+\Gamma \left({{a}_{2}}\right)\\&{{\left.{\frac {{\partial }^{n}}{\partial {{a}^{n}}}}\Gamma \left(a\right)\right|}_{a=0}}\Rightarrow {{\left\langle {{\left({{x}_{1}}+{{x}_{2}}\right)}^{n}}\right\rangle }_{C}}={{\left\langle {{x}^{n}}\right\rangle }_{C}}={{\left\langle {{x}_{1}}^{n}\right\rangle }_{C}}+{{\left\langle {{x}_{2}}^{n}\right\rangle }_{C}}\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8557f75168bec2b161ffa67df69aee9d13f5d523)
Fluktuation:
![{\displaystyle \Delta x:=x-\left\langle x\right\rangle }](https://wikimedia.org/api/rest_v1/media/math/render/svg/ed46822d1e77c44dae62a960f81fa3eb371f18d4)
mit
![{\displaystyle \left\langle \Delta x\right\rangle =0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dd4e875708880df33c56bb3db6579f1265549b55)
Bildung der Varianz:
![{\displaystyle \left\langle {{\left(\Delta x\right)}^{2}}\right\rangle =\left\langle {{\left(x-\left\langle x\right\rangle \right)}^{2}}\right\rangle =\left\langle {{x}^{2}}\right\rangle -2\left\langle x\right\rangle \left\langle x\right\rangle +{{\left\langle x\right\rangle }^{2}}=\left\langle {{x}^{2}}\right\rangle -{{\left\langle x\right\rangle }^{2}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/09ea8ddb7425e81acd88bbdabeb744ab8098dffa)
Als Maß für die Breite einer Verteilung
Korrelationsmatrix:
![{\displaystyle \left\langle \Delta {{x}_{k}}\Delta {{x}_{l}}\right\rangle =\left\langle {{x}_{k}}{{x}_{l}}\right\rangle -\left\langle {{x}_{k}}\right\rangle \left\langle {{x}_{l}}\right\rangle }](https://wikimedia.org/api/rest_v1/media/math/render/svg/f0e1da95eb1a15d4759290d364084206f907955d)
Nichtdiagonalelemente verschwinden für unkorrelierte Zufallsvariablen.
Denn dann: separieren die Momente der WSK- Verteilung! Siehe oben
- Korrelationsmatrix beschreibt die qm- Korrelationen über ihre Außerdiagonalelemente
Zusammenhang zwischen Kumulanten und Momenten:[edit | edit source]
![{\displaystyle {\begin{aligned}&{{\left\langle x\right\rangle }_{C}}=\left\langle x\right\rangle \\&{{\left\langle {{x}^{2}}\right\rangle }_{C}}=\left\langle {{\left(\Delta x\right)}^{2}}\right\rangle =\left\langle {{x}^{2}}\right\rangle -{{\left\langle x\right\rangle }^{2}}\\&{{\left\langle {{x}^{3}}\right\rangle }_{C}}=\left\langle {{\left(\Delta x\right)}^{3}}\right\rangle \\&{{\left\langle {{x}^{4}}\right\rangle }_{C}}=\left\langle {{\left(\Delta x\right)}^{4}}\right\rangle -3{{\left\langle {{\left(\Delta x\right)}^{2}}\right\rangle }^{2}}\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/47f944ed3434b9a84e9d62f7c7ae732601ee0f96)
Gaußverteilung / Normalverteilung[edit | edit source]
![{\displaystyle {\begin{aligned}&\rho (x)=A\exp \left(-{\frac {{\left(x-\left\langle x\right\rangle \right)}^{2}}{2{{\sigma }^{2}}}}\right)\\&{{\sigma }^{2}}:=\left\langle {{\left(\Delta x\right)}^{2}}\right\rangle ={{\left\langle {{x}^{2}}\right\rangle }_{C}}\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2aee8f090652fd40076c1f0ed8126919ae42eed4)
Mit Sigma als Standardabweichung
Normierung:
![{\displaystyle {\begin{aligned}&\int _{-\infty }^{\infty }{}dx\rho (x)=A\sigma {\sqrt {2}}\int _{-\infty }^{\infty }{}du\exp \left(-{{u}^{2}}\right)=!=1\\&u:={\frac {x}{\sigma {\sqrt {2}}}}\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6e14bcae7fe5fcea30527ca498913bdf6877f094)
Wegen:
![{\displaystyle {\begin{aligned}&\int _{-\infty }^{\infty }{}du\exp \left(-{{u}^{2}}\right)={\sqrt {\pi }}\\&\Rightarrow A={\frac {1}{\sigma {\sqrt {2\pi }}}}\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/448e6858d07c20753e8ba82ba617d01a92ac5a67)
Nebenbemerkung, die Gaußverteilung
ist bestimmt durch
.
Alle höheren Kumulanten verschwinden!