Informazione Mutua (2×2)
Informazione mutua tra due variabili binarie da probabilità congiunte.
This public page keeps the free explanation visible and leaves premium worked solving, advanced walkthroughs, and saved study tools inside the app.
Core idea
Overview
L'Informazione Mutua quantifica la dipendenza statistica tra due variabili casuali discrete misurando quanta informazione è condivisa tra di loro. Nel caso della tabella di contingenza 2×2, calcola la divergenza di Kullback-Leibler tra la distribuzione di probabilità congiunta e il prodotto delle distribuzioni marginali di due variabili binarie.
When to use: Applica questa formula quando analizzi la relazione tra due variabili binarie, come il confronto tra un risultato di test e la presenza di una malattia. È preferita alla correlazione lineare quando è necessario catturare dipendenze non lineari o associazioni statistiche generali.
Why it matters: È un concetto fondamentale nella teoria della comunicazione per il calcolo della capacità del canale e nel machine learning per la selezione delle caratteristiche. Un'alta informazione mutua indica che conoscere lo stato di una variabile riduce significativamente l'incertezza sull'altra.
Symbols
Variables
I(X;Y) = Mutual Information, = P(X=0,Y=0), = P(X=0,Y=1), = P(X=1,Y=0), = P(X=1,Y=1)
Walkthrough
Derivation
Derivazione dell'Informazione Mutua da una Tabella Congiunta 2×2
L'informazione mutua somma p(x,y) ln(p(x,y)/(p(x)p(y))) su tutte le coppie.
- X e Y sono binarie.
- Le probabilità congiunte p00,p01,p10,p11 sommano a 1.
Parti dalla definizione:
L'informazione mutua quantifica la dipendenza tra X e Y.
Calcola i marginali dalla tabella 2×2:
Hai bisogno di p(x) e p(y) per formare il rapporto p(x,y)/(p(x)p(y)).
Somma i quattro termini (p00, p01, p10, p11):
Ogni probabilità congiunta non nulla contribuisce con un termine. Per convenzione, 0·ln(0)=0.
Result
Why it behaves this way
Intuition
Immagina un paesaggio statistico in cui l'altezza in ogni punto (x,y) rappresenta la deviazione dall'indipendenza. L'informazione mutua rappresenta il volume totale di queste deviazioni, pesato in base alla frequenza con cui compare ciascuna combinazione.
Signs and relationships
- \ln\frac{p(x,y)}{p(x)p(y)}: Il logaritmo naturale trasforma il rapporto tra probabilita in una misura additiva dell'informazione. Se la probabilita congiunta osservata p(x,y) e maggiore di p(x)p(y), il termine logaritmico e positivo; se e minore, il termine e negativo.
Free study cues
Insight
Canonical usage
Uso canonico: Mutual information is a dimensionless quantity, representing a measure of statistical dependence. It is conventionally expressed in 'nats' when the natural logarithm (ln) is used, or 'bits' when logarithm base 2 (log2)
Dimension note
Nota adimensionale: Mutual information is inherently dimensionless because it is calculated from ratios of probabilities, which are themselves dimensionless.
One free problem
Practice Problem
Un ricercatore sta studiando il legame tra una specifica mutazione genetica e un tratto raro. In una popolazione perfettamente bilanciata, le probabilità congiunte sono tutte uguali (0.25 ciascuna). Calcola l'Informazione Mutua.
Hint: Se la probabilità congiunta di ogni cella è uguale al prodotto delle sue probabilità marginali, le variabili sono indipendenti.
The full worked solution stays in the interactive walkthrough.
Where it shows up
Real-World Context
Nel contesto di Quantificare quanto è informativa un’indagine medica sullo stato di una malattia, Informazione Mutua (2×2) serve a trasformare le misure in un valore interpretabile. Il risultato è importante perché aiuta a valutare il comportamento del modello, il costo dell'algoritmo o la qualità della previsione prima di usare il risultato.
Study smarter
Tips
- Assicurati che la somma delle probabilità congiunte (p00, p01, p10, p11) sia esattamente 1.0 prima di iniziare.
- Calcola le probabilità marginali per X e Y sommando le righe e le colonne della tabella di contingenza.
- Tratta i termini dove p(x,y) è zero come zero, poiché il limite di p log(p) quando p tende a zero è zero.
- Il risultato è misurato in nats quando si usa il logaritmo naturale (ln) o in bit quando si usa il logaritmo in base 2.
Avoid these traps
Common Mistakes
- Dimenticare di normalizzare le probabilità in modo che la somma sia 1.
- Mescolare logaritmi (ln vs log2) e unità (nats vs bit).
Common questions
Frequently Asked Questions
L'informazione mutua somma p(x,y) ln(p(x,y)/(p(x)p(y))) su tutte le coppie.
Applica questa formula quando analizzi la relazione tra due variabili binarie, come il confronto tra un risultato di test e la presenza di una malattia. È preferita alla correlazione lineare quando è necessario catturare dipendenze non lineari o associazioni statistiche generali.
È un concetto fondamentale nella teoria della comunicazione per il calcolo della capacità del canale e nel machine learning per la selezione delle caratteristiche. Un'alta informazione mutua indica che conoscere lo stato di una variabile riduce significativamente l'incertezza sull'altra.
Dimenticare di normalizzare le probabilità in modo che la somma sia 1. Mescolare logaritmi (ln vs log2) e unità (nats vs bit).
Nel contesto di Quantificare quanto è informativa un’indagine medica sullo stato di una malattia, Informazione Mutua (2×2) serve a trasformare le misure in un valore interpretabile. Il risultato è importante perché aiuta a valutare il comportamento del modello, il costo dell'algoritmo o la qualità della previsione prima di usare il risultato.
Assicurati che la somma delle probabilità congiunte (p00, p01, p10, p11) sia esattamente 1.0 prima di iniziare. Calcola le probabilità marginali per X e Y sommando le righe e le colonne della tabella di contingenza. Tratta i termini dove p(x,y) è zero come zero, poiché il limite di p log(p) quando p tende a zero è zero. Il risultato è misurato in nats quando si usa il logaritmo naturale (ln) o in bit quando si usa il logaritmo in base 2.
References
Sources
- Cover, Thomas M., and Joy A. Thomas. Elements of Information Theory. 2nd ed. Wiley-Interscience, 2006.
- Wikipedia: Mutual Information
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory (2nd ed.). Wiley.
- Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory (2nd ed.). Wiley-Interscience.
- Shannon, C. E. (1948). A Mathematical Theory of Communication. Bell System Technical Journal, 27(3), 379-423.