Retta di Regressione Lineare Semplice
Questa equazione definisce la retta di migliore adattamento che minimizza la somma dei quadrati dei residui tra valori osservati e previsti per una relazione lineare tra due variabili.
This public page keeps the free explanation visible and leaves premium worked solving, advanced walkthroughs, and saved study tools inside the app.
Core idea
Overview
La retta di regressione viene calcolata utilizzando il metodo dei minimi quadrati ordinari (OLS), che cerca di minimizzare la varianza degli errori. La pendenza, b1, rappresenta la variazione attesa di y per unità di variazione di x, mentre l'intercetta, b0, indica il valore previsto di y quando x è zero. Insieme, questi parametri caratterizzano il trend lineare all'interno di un set di dati.
When to use: Utilizzare questo quando è necessario modellare la relazione tra due variabili continue e prevedere esiti futuri basati su trend lineari.
Why it matters: È lo strumento fondamentale per l'analisi predittiva, che consente a ricercatori e aziende di prevedere trend e quantificare la forza delle relazioni tra le variabili.
Symbols
Variables
y^ = Predicted Value, = Slope, = Y-Intercept, x = Independent Variable, n = Sample Size
Walkthrough
Derivation
Derivazione della Retta di Regressione Lineare Semplice
Questa derivazione utilizza il Metodo dei Minimi Quadrati per minimizzare la somma dei quadrati dei residui tra i punti dati osservati e il modello di regressione lineare.
- La relazione tra le variabili x e y è lineare.
- Gli errori sono indipendenti e identicamente distribuiti con media zero.
Definire la Somma dei Quadrati dei Residui (SSR)
Definiamo la funzione obiettivo S come la somma dei quadrati delle distanze verticali tra ciascun punto dati osservato e il valore previsto sulla retta di regressione.
Note: Minimizzare i residui al quadrato assicura che le deviazioni positive e negative non si annullino a vicenda.
Differenziazione Parziale rispetto a b_0
Per minimizzare S, prendiamo la derivata parziale rispetto a e la poniamo a zero, il che porta all'equazione normale per l'intercetta.
Note: La semplificazione di questo porta all'equazione = - \bar{x}.
Differenziazione Parziale rispetto a b_1
Prendiamo la derivata parziale rispetto a e la poniamo a zero per trovare la pendenza che minimizza l'errore.
Note: Sostituire l'espressione per dal passaggio precedente in questa equazione per isolare .
Risolvere il Sistema per b_1
Sostituendo nella seconda equazione normale e risolvendo algebricamente, deriviamo la formula computazionale per il coefficiente di pendenza.
Note: Questo è equivalente a .
Result
Source: Montgomery, D. C., Peck, E. A., & Vining, G. G. (2012). Introduction to Linear Regression Analysis.
Why it behaves this way
Intuition
Immagina un grafico a dispersione di punti dati come una nuvola di particelle fluttuanti. La retta di regressione agisce come un bastone rigido e ponderato che passa attraverso il centro della nuvola. La formula agisce come un meccanismo di 'gravità' che ruota e sposta questo bastone finché la somma delle distanze verticali (al quadrato) tra il bastone e ogni punto nella nuvola non è al minimo assoluto.
Signs and relationships
- b_1: Prima spiegazione: il vincolo in Derivazione della Retta di Regressione Lineare Semplice stabilisce quale operazione e ammessa e quale lettura va evitata. Prima di usare il risultato numerico, controlla verso, uguaglianza o condizione limite e mantieni coerente il significato della relazione.
- b_0: Seconda spiegazione: il vincolo in Derivazione della Retta di Regressione Lineare Semplice stabilisce quale operazione e ammessa e quale lettura va evitata. Prima di usare il risultato numerico, controlla verso, uguaglianza o condizione limite e mantieni coerente il significato della relazione.
One free problem
Practice Problem
Dati i punti dati (1, 2), (2, 3) e (3, 5), calcolare la pendenza b1 della retta di regressione.
Hint: Calcolare separatamente il numeratore n*sum(xy) - sum(x)*sum(y) e il denominatore n*sum() - (sum(x))^2.
The full worked solution stays in the interactive walkthrough.
Where it shows up
Real-World Context
Un economista utilizza questa equazione per modellare la relazione tra spesa di marketing e fatturato totale per prevedere quanto fatturato genererà un budget specifico.
Study smarter
Tips
- Creare sempre prima un grafico a dispersione per assicurarsi che la relazione sia effettivamente lineare.
- Verificare la presenza di valori anomali, poiché questi possono influenzare in modo sproporzionato la pendenza della retta di regressione.
- Calcolare il coefficiente di correlazione (r) per quantificare la forza e la direzione della relazione lineare.
Avoid these traps
Common Mistakes
- Presumere che una forte correlazione implichi causalità.
- Estralolare la retta di regressione ben oltre l'intervallo dei dati x osservati.
Common questions
Frequently Asked Questions
Questa derivazione utilizza il Metodo dei Minimi Quadrati per minimizzare la somma dei quadrati dei residui tra i punti dati osservati e il modello di regressione lineare.
Utilizzare questo quando è necessario modellare la relazione tra due variabili continue e prevedere esiti futuri basati su trend lineari.
È lo strumento fondamentale per l'analisi predittiva, che consente a ricercatori e aziende di prevedere trend e quantificare la forza delle relazioni tra le variabili.
Presumere che una forte correlazione implichi causalità. Estralolare la retta di regressione ben oltre l'intervallo dei dati x osservati.
Un economista utilizza questa equazione per modellare la relazione tra spesa di marketing e fatturato totale per prevedere quanto fatturato genererà un budget specifico.
Creare sempre prima un grafico a dispersione per assicurarsi che la relazione sia effettivamente lineare. Verificare la presenza di valori anomali, poiché questi possono influenzare in modo sproporzionato la pendenza della retta di regressione. Calcolare il coefficiente di correlazione (r) per quantificare la forza e la direzione della relazione lineare.
References
Sources
- Montgomery, D. C., Peck, E. A., & Vining, G. G. (2012). Introduction to Linear Regression Analysis.
- Freedman, D., Pisani, R., & Purves, R. (2007). Statistics.