Entropie (Shannon)
Durchschnittliches Maß an Information/Unsicherheit.
This public page keeps the free explanation visible and leaves premium worked solving, advanced walkthroughs, and saved study tools inside the app.
Core idea
Overview
Die Shannon-Entropie quantifiziert das durchschnittliche Maß an Unsicherheit, Überraschung oder Information, das den möglichen Ergebnissen einer Zufallsvariablen innewohnt. Sie bildet die theoretische Grundlage der Datenkompression, indem sie die minimale durchschnittliche Anzahl an Bits definiert, die zur Darstellung einer Nachricht erforderlich sind.
When to use: Verwende diese Formel, um die Grenzen verlustfreier Datenkompression zu bestimmen oder die Unvorhersagbarkeit einer diskreten Wahrscheinlichkeitsverteilung zu messen. Sie ist am wirksamsten, wenn die Menge möglicher Ergebnisse endlich ist und ihre Wahrscheinlichkeiten unabhängig und bekannt sind.
Why it matters: Sie ist die grundlegende Metrik der Informationstheorie und ermöglicht die Effizienz moderner digitaler Kommunikation, von ZIP-Dateien bis zu Streaming-Video. Durch die Identifikation der statistischen Struktur von Daten erlaubt sie die Optimierung von Speicher- und Übertragungsbandbreite.
Symbols
Variables
H = Entropy (Bits), p = Probability (p)
Walkthrough
Derivation
Formel: Shannon-Entropie
Die Shannon-Entropie misst die durchschnittliche Unsicherheit (Informationsgehalt) einer diskreten Zufallsvariablen unter Verwendung der Wahrscheinlichkeiten der Ergebnisse.
- X ist diskret mit Ergebnissen und Wahrscheinlichkeiten =P().
- Terme mit =0 tragen 0 bei (behandle 0\log 0 als 0).
Nennen der Entropieformel:
Summieren der nach Wahrscheinlichkeit gewichteten Information (1/) über alle Ergebnisse, was die erwartete Information pro Symbol ergibt.
Interpretieren der Einheiten:
Die Verwendung von Logarithmen zur Basis 2 bedeutet, dass die Entropie in Bits (Binärziffern) gemessen wird.
Note: Die maximale Entropie tritt auf, wenn alle Ergebnisse gleich wahrscheinlich sind.
Result
Source: AQA A-Level Computer Science — Data Representation
Free formulas
Rearrangements
Solve for
Nach H umstellen
Vereinfachen Sie die Entropieformel von Shannon von ihrer allgemeinen Summationsform auf den speziellen Fall der binären Entropie, bei dem es nur zwei mögliche Ergebnisse gibt.
Difficulty: 2/5
The static page shows the finished rearrangements. The app keeps the full worked algebra walkthrough.
Visual intuition
Graph
Graph type: parabolic
Why it behaves this way
Intuition
Die Shannon-Entropie quantifiziert die „Streuung“ oder „Flachheit“ einer Wahrscheinlichkeitsverteilung: eine gleichmäßigere Verteilung (alle Ergebnisse gleich wahrscheinlich)
Signs and relationships
- -: Der Logarithmus log_2 p(x) ist für Wahrscheinlichkeiten p(x) zwischen 0 und 1 negativ. Das negative Vorzeichen stellt sicher, dass der Informationsgehalt -log_2 p(x) eine positive Größe ist, die die Anzahl der Bits darstellt.
Free study cues
Insight
Canonical usage
Die Shannon-Entropie quantifiziert Information in Einheiten, die durch die Basis des verwendeten Logarithmus bestimmt werden, am häufigsten in Bits (bei Logarithmus zur Basis 2).
Dimension note
Die Shannon-Entropie ist eine dimensionslose Größe, die den durchschnittlichen Informationsgehalt oder die Ungewissheit darstellt. Die Wahrscheinlichkeiten p(x) sind selbst dimensionslos, und der Logarithmus einer dimensionslosen Größe ist ebenfalls
One free problem
Practice Problem
Eine faire Münze hat zwei Ergebnisse, Kopf und Zahl, jeweils mit einer Wahrscheinlichkeit von 0.5. Berechne die Shannon-Entropie eines einzelnen Münzwurfs.
Hint: Wenn Ergebnisse gleich wahrscheinlich sind (p = 0.5 für binär), ist die Entropie maximal.
The full worked solution stays in the interactive walkthrough.
Where it shows up
Real-World Context
Im Kontext von Messung der Unsicherheit einer verzerrten Münze wird Entropie (Shannon) verwendet, um Messwerte in einen interpretierbaren Wert zu übersetzen. Das Ergebnis ist wichtig, weil es hilft, Modellverhalten, Algorithmuskosten oder Vorhersagequalität vor der Nutzung des Ergebnisses zu bewerten.
Study smarter
Tips
- Die Entropie ist maximal, wenn alle Ergebnisse gleich wahrscheinlich sind.
- Die Einheiten sind Bits, wenn der Logarithmus zur Basis 2 genommen wird.
- Die Entropie ist immer null oder positiv; sie ist nur null, wenn ein Ergebnis sicher ist.
- Verwende die Formel für den Basiswechsel: log₂(x) = ln(x) / ln(2).
Avoid these traps
Common Mistakes
- Den natürlichen Logarithmus statt log2 verwenden.
- Sowohl p- als auch q-Terme vergessen.
Common questions
Frequently Asked Questions
Die Shannon-Entropie misst die durchschnittliche Unsicherheit (Informationsgehalt) einer diskreten Zufallsvariablen unter Verwendung der Wahrscheinlichkeiten der Ergebnisse.
Verwende diese Formel, um die Grenzen verlustfreier Datenkompression zu bestimmen oder die Unvorhersagbarkeit einer diskreten Wahrscheinlichkeitsverteilung zu messen. Sie ist am wirksamsten, wenn die Menge möglicher Ergebnisse endlich ist und ihre Wahrscheinlichkeiten unabhängig und bekannt sind.
Sie ist die grundlegende Metrik der Informationstheorie und ermöglicht die Effizienz moderner digitaler Kommunikation, von ZIP-Dateien bis zu Streaming-Video. Durch die Identifikation der statistischen Struktur von Daten erlaubt sie die Optimierung von Speicher- und Übertragungsbandbreite.
Den natürlichen Logarithmus statt log2 verwenden. Sowohl p- als auch q-Terme vergessen.
Im Kontext von Messung der Unsicherheit einer verzerrten Münze wird Entropie (Shannon) verwendet, um Messwerte in einen interpretierbaren Wert zu übersetzen. Das Ergebnis ist wichtig, weil es hilft, Modellverhalten, Algorithmuskosten oder Vorhersagequalität vor der Nutzung des Ergebnisses zu bewerten.
Die Entropie ist maximal, wenn alle Ergebnisse gleich wahrscheinlich sind. Die Einheiten sind Bits, wenn der Logarithmus zur Basis 2 genommen wird. Die Entropie ist immer null oder positiv; sie ist nur null, wenn ein Ergebnis sicher ist. Verwende die Formel für den Basiswechsel: log₂(x) = ln(x) / ln(2).
References
Sources
- Shannon, C. E. (1948). A Mathematical Theory of Communication.
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory.
- Wikipedia: Shannon entropy
- Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal, 27(3), 379-423.
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory (2nd ed.). Wiley.
- Claude E. Shannon, 'A Mathematical Theory of Communication', Bell System Technical Journal, 1948
- Thomas M. Cover and Joy A. Thomas, 'Elements of Information Theory', 2nd ed., Wiley-Interscience, 2006
- David J. C. MacKay, 'Information Theory, Inference, and Learning Algorithms', Cambridge University Press, 2003