Entropia (Shannon) Calculator
Nível médio de informação/incerteza.
Formula first
Overview
A entropia de Shannon quantifica o nível médio de incerteza, surpresa ou informação inerente aos possíveis resultados de uma variável aleatória. Ela fornece a base teórica para a compressão de dados, definindo o número médio mínimo de bits necessários para representar uma mensagem.
Symbols
Variables
H = Entropy (Bits), p = Probability (p)
Apply it well
When To Use
When to use: Use esta fórmula para determinar os limites da compressão de dados sem perdas ou para medir a imprevisibilidade de uma distribuição de probabilidade discreta. É mais eficaz quando o conjunto de resultados possíveis é finito e suas probabilidades são independentes e conhecidas.
Why it matters: É a métrica fundamental da teoria da informação, possibilitando a eficiência das comunicações digitais modernas, de arquivos ZIP a streaming de vídeo. Ao identificar a estrutura estatística dos dados, ela permite a otimização do armazenamento e da largura de banda de transmissão.
Avoid these traps
Common Mistakes
- Usar logaritmo natural em vez de log2.
- Esquecer os termos p e q.
One free problem
Practice Problem
Uma moeda justa tem dois resultados, cara e coroa, cada um com probabilidade de 0,5. Calcule a entropia de Shannon de um único lançamento de moeda.
Hint: Quando os resultados são igualmente prováveis (p = 0,5 para binário), a entropia está em seu valor máximo.
The full worked solution stays in the interactive walkthrough.
References
Sources
- Shannon, C. E. (1948). A Mathematical Theory of Communication.
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory.
- Wikipedia: Shannon entropy
- Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal, 27(3), 379-423.
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory (2nd ed.). Wiley.
- Claude E. Shannon, 'A Mathematical Theory of Communication', Bell System Technical Journal, 1948
- Thomas M. Cover and Joy A. Thomas, 'Elements of Information Theory', 2nd ed., Wiley-Interscience, 2006
- David J. C. MacKay, 'Information Theory, Inference, and Learning Algorithms', Cambridge University Press, 2003