Informationsmaße
65px|Kein GFDL | Der Artikel Informationsmaße basiert auf der Vorlesungsmitschrift von Franz- Josef Schmitt des 1.Kapitels (Abschnitt 2) der Thermodynamikvorlesung von Prof. Dr. E. Schöll, PhD. |
|}}
{{#set:Urheber=Prof. Dr. E. Schöll, PhD|Inhaltstyp=Script|Kapitel=1|Abschnitt=2}} Kategorie:Thermodynamik __SHOWFACTBOX__
Die Informationstheorie ( Shannon, Wiener) entstand im 2. Weltkrieg im Zusammenhang mit der Entschlüsselung codierter Nachrichten !
Definition:
auf einer Algebra A´ ist eine Abbildung
mit den Eigenschaften
für disjunkte Ereignisse Ai, also
- Algebra A´ ist eine Algebra A´ mit der Eigenschaft, dass abzählbar viele
Also: Die Vereinigung der Ereignisse ist Element der Algebra !
Im Folgenden sei unsere Algebra A´ stets eine Sigma- Algebra !
Beispiel eines Maßes: Wahrscheinlichkeit P
Speziell:
Idee des Informationsmaßes:
Vergleich verschiedener Wahrscheinlichkeitsverteilungen über einer Ereignisalgebra A´
Frage: Welche von 2 Verteilungen enthält mehr Information , bzw. Kenntnis darüber, welches Ereignis eintreten wird ?
Mathematische Grundbegriffe: Reed/ Simon: Methods of Modern Math. Physics, Vol. I: Functional Analysis !
Beispiel:
Zonk- Problem:
Hauptgewinn ist hinter einer von 3 Türen versteckt !
- Verteilung: Alle drei Türen zu je 1/3:
Als Gleichverteilung → minimale Kenntnis
- Verteilung:
scharfe Verteilung → maximale Kenntnis / Sicherheit
Bitzahl:
Ausgangspunkt: diskrete Ereignisalgebra:
Frage: Wie lange muss eine Nachricht sein, die einem Beobachter mitteilt, dass ein Ereignis eingetreten ist ??
Länge der Nachricht = Maß für die fehlende Kenntnis des Beobachters
Beispiel:
Auswahl eines Ereignisses aus
falls der Beobachter keine Vorkenntnis hat .
- einafche Alternative
= kleinste Informationseinheit
= 1 bit ( binary digit)
Nachricht: 0 oder 1
n Alternativentscheidungen notwendig:
z.B. 0011 → insgesamt n Stellen in Binärdarstellung nötig !
Länge der Nachricht:
( nötige Bitzahl)
Informationsmaß der Nachricht:
Bitzahl !
falls keine Vorkenntnis vorhanden ist !
Verallgemeinerung auf Wahrscheinlichkeitsverteilungen
kennt, muss nur die fehlende Information mitgeteilt werden: Also die Bitzahl
.
Postulate für die Konstruktion von
:
- sei eine universelle Funktion, hängt von A also nur über P(A) ab !
- Seien
- und
- 2 verschiedene ( disjunkte) sample sets, z.B. 2 Subsysteme eines zusammengesetzten Systems: So gilt:
Für 2 völlig unkorrelierte Subsysteme eines zusammengesetzten Systems gilt:
b ist additiv, also:
wobei nach Definition der Unkorreliertheit ( stochastische Unabhängigkeit) gilt:
dabei ist
das direkte Produkt der beiden Zufallsvariablen, gegeben durch das Ereignistupel
.
3) b(P)=0 für P=1, also für das sichere Ereignis
also im Falle von Gleichverteilung, welches maximale Unbestimmtheit darstellt !
ist stetig und wohldefiniert für
Wegen der Additivität macht es Sinn:
zu definieren. Es muss f noch bestimmt werden !
Wegen 1) und 2) folgt:
Also: die Funktion sollte linear in log P sein !
Bemerkung:
Für 2 unkorrelierte Systeme ist die Länge der Nachricht = Informationsmaß bei maximaler Unbestimmtheit additiv.
Dies motiviert Postulat 2)
Aus 3) folgt:
Konvention:
Einheit für ein bit:
"bin"
Informationsmaß für die Nachricht, dass Ai eingetreten ist,
falls
bekannt ist !
Informationsmaß einer Wahrscheinlichkeitsverteilung
Übermittlung vieler Nachrichten:
tritt mit relativer Häufigkeit
auf !
mittlere benötigte ( = da fehlende !) Information pro Ereignis:
somit:
Definition: Shannon- Information einer Verteilung
I ist Funktional der Verteilung
b ist Funktion von Pi b(Pi)
Also maximal für scharfe Verteilung mit sicherem Ereignis
unter der Nebenbedingung
wegen Normierung:
Somit:
mit dem Lagrange- Multiplikator
, also Gleichverteilung
Übung: Man vergleiche I(P) für verschiedene Verteilungen
Kontinuierliche Ereignismenge
Wahrscheinlichkeit für ein Ereignis in Zelle i:
für eine feste Zellengröße.
Damit kann dieser Term weggelassen werden und wir gewinnen:
Bemerkungen
- Shannon- Informationsmaß misst die Kenntnis bezüglich der Frage: Welches Ereignis tritt ein ?
keine Unterscheidung, wi die verteilung zustande kommt, z.B. bei Gleichverteilung: genaue Beobachtung ODER vorurteilsfreie Schätzung bei gänzlich fehlender Kenntnis
( Laplacsches Prinzip vom unzureichenden Grund)
2) Definition : Statistisches Informationsmaß des NICHTWISSENS: ( der fehlenden Information):
k geeignete Einheit
Interpretation in der Thermodynamik als Entropie
wird gleich dem Shannon- Informationsmaß für
Informationsgewinn
Maß für die Zusatzinformationen einer Wahrscheinlichkeitsverteilung
im Vergleich zu einer Referenzverteilung
über derselben Ereignismenge:
Dies ist zu verstehen als die notwendige Bitzahl, um Pi´ in Pi zu verwandeln , also die Information, die als Nachricht hierfür gegeben werden muss :
Mittlere Bitzahl ( mit der korrigierten Wahrscheinlichkeitsverteilung gewichtet):
Informationsgewinn → Kullback Information !
Bemerkungen
es gilt:
bei Gleichverteilung !
5) Minimum von K:
Wegen Normierung:
somit ist dann auch
konvex ( Informationsgewinn)
Kontinuierliche Ereignismengen
Wahrscheinlichkeit für ein Ereignis in Zelle i:
invariant gegen die Trafo
Während
nicht invariant ist !
Bemerkung:
in der Thermodynamik als Entropieproduktion und von
als Exergie ( availability)