Shannon's Entropie

Dieser Onlinerechner berechnet die Shannon's Entropie für eine gegebene Ereigniswahrscheinlichkeitstabelle und einer gegebnenen Nachricht.

Diese Webseite exisiert dank der Arbeit von den folgenden Menschen:

Timur

Timur

Stefan Roesner

Erstellt: 2020-11-14 05:52:35, Letzte Aktualisierung: 2020-11-14 05:52:35
Creative Commons Attribution/Share-Alike License 3.0 (Unported)

Der Inhalt ist unter der Creative Commons Namensnennung / Weitergabe unter gleichen Bedingungen 3.0 (nicht portiert) lizenziert. Dies bedeutet, dass Sie diesen Inhalt unter den gleichen Lizenzbedingungen frei weitergeben oder ändern dürfen, jedoch mit Zuordnung zum Entwickler indem Sie einen Hyperlink auf Ihrer Webseite zu dieser Arbeit https://de.planetcalc.com/2476/ platzieren. Des Weiteren ändern Sie bitte keine Verweise auf das Originalwerk (falls vorhanden) das in diesem Inhlat vorhanden ist.

In der Informationstheorie ist Entropie die Messung von Unwahrscheinlichkeit in einer beliebigen Variablen. In diesem Zusammenhang redet man normalerweise von Shannon’s Entropie, welche den erwarteten Wert der Information einer Nachricht quantifiziert.
Claude E. Shannon stellte diese Formel für Entropie in seiner Arbeit "A Mathematical Theory of Communication” in 1948 vor.

H(X) = - \sum_{i=1}^np(x_i)\log_b p(x_i)

Minus wird genutzt für Werte niedriger als 1 und wenn der Logarithmus negativ ist. Wegen

-\log a = \log \frac{1}{a},

Kann die Formel auch folgendermaßen dargestellt werden

H(X)= \sum_{i=1}^np(x_i)\log_b \frac{1}{p(x_i)}

Ausdruck
\log_b \frac{1}{p(x_i)}
wird auch als Ungewissheit oder als Überraschung bezeichnet. Je geringer die Wahrscheinlichkeit p(x_i) ist, z.B. p(x_i) → 0, je höher ist die Ungewissheit oder Überraschung, z.B. u_i → ∞, für den Ausgang x_i.

In diesem Fall stellt die Formel die mathematische Erwartung der Ungewissheit dar, daher kann man die Informationsentropie und Informationenungewissheit austauchbar genutzt werden.

Dieser Rechner berechnet die Shannon Entropie für eine gegebene Ereigniswahrscheinlichkeit.

PLANETCALC, Shannon's Entropie

Shannon's Entropie

Zahlen nach dem Dezimalpunkt: 2
Entropie, Bits
 

Dieser Rechner berechnet die Shannon Entropie für eine gegebene Nachricht.

PLANETCALC, Shannon's Entropie

Shannon's Entropie

Zahlen nach dem Dezimalpunkt: 2
Entropie, Bits
 

URL zum Clipboard kopiert
PLANETCALC, Shannon's Entropie

Kommentare