Top Banner
Anvendt Statistik Lektion 8 Multipel Lineær Regression 1
34

Anvendt Statistik Lektion 8

Feb 24, 2016

Download

Documents

Sumya Sumya

Anvendt Statistik Lektion 8. Multipel Lineær Regression. Simpel Lineær Regression (SLR). y. Sammenhængen mellem den afhængige variabel (y) og den forklarende variabel (x) beskrives vha. en SLR: ligger ikke præcist på regressionslinjen. Regressionsmodel : y i = a + b x i + e i - PowerPoint PPT Presentation
Welcome message from author
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Page 1: Anvendt Statistik Lektion 8

1

Anvendt StatistikLektion 8

Multipel Lineær Regression

Page 2: Anvendt Statistik Lektion 8

2

Sammenhængen mellem den afhængige variabel (y) og den forklarende variabel (x) beskrives vha. en SLR: ligger ikke præcist på regressionslinjen.

Regressionsmodel:yi = a + bxi+ ei

Fejlleddet ei angiver afvigelsen mellem punktet (xi,yi) og linjen.

Simpel Lineær Regression (SLR)

x

y

xi

yi

(xi,yi)

ei

a + bx

Fejlledene er uafhængige og normalfordelte med middelværdi nul og standardafvigelse s.

Page 3: Anvendt Statistik Lektion 8

3

Multipel Lineær Regression (MLR) Antag vi har

y : afhængig variabel x1 : første forklarende var. x2 : anden forklarende var.

MLR model:yi = a + b1x1,i+b2x2,i+e

Her: x1,i er værdien af x1 for i’te ”person”.

Forventede værdi:E[y] = a + b1x1+b2x2

Dvs. regressionsplanet angiver gennemsnittet for responsen

x1

x2

y

x1,i

x2,i

ei

yi

a + b1x1+b2x2

Page 4: Anvendt Statistik Lektion 8

4

Fortolkning af bi Antag vi har k forklarende variable:

yi = a + b1x1,i+b2x2,i+ ··· +bkxk,i +e

Fortolkningen af bj: bj er den partielle effekt af xj på y. Dvs. bj er effekten af xj på y, når vi har kontrolleret for de

andre x’er. Hvis x1 øges med 1, så øges den forventede værdi af y

med b1, hvis x2, x3, …, xk forbliver uændrede (dvs. ”alt andet lige”).

Page 5: Anvendt Statistik Lektion 8

5

Prædiktion og Residual

MLR model:yi = a + b1x1,i+b2x2,i+ ··· +bkxk,i +ei

Prædiktionsligningen/ estimerede model er

Dvs. er et estimat af E[yi].

Residual: Dvs. residualet er et estimat af ei .

kki xbxbxbay ++++ 2211ˆ

iy

iii yye ˆ

x1

x2

y

x1,i

x2,i

ei

yi

E[y] = a + b1x1+b2x2

x1

x2

x1,i

x2,i

ei

yi

y = a + b1x1+b2x2^

y

Page 6: Anvendt Statistik Lektion 8

6

Mindste kvadraters metode

Definer summen af de kvadrerede residualer

UK: Sum of Squared Errors SPSS: Sum of Squared Residuals

Mindste kvadraters metode: Vi vælger a, b1, b2, …, bk, så SSE er mindst mulig. Bemærk at

22ˆiii ii eyySSE

2,,22,11 ++++i ikkiii xbxbxbaySSE

Page 7: Anvendt Statistik Lektion 8

7

Eksempel: Kriminalitet i Florida Data for 67 ‘counties’ i Florida.

Tre variable y : crime rate (crimes pr. 1000 indbyggere) x1: education (% med mindst high school) x2: urbanization (% der bor I ubant område)

I første omgang: Kriminalitet og uddannelse

Page 8: Anvendt Statistik Lektion 8

8

Eksempel: Kriminalitet i Florida (fortsat) En simpel lineær regression af

crime rate (y) mod education (x): Prædiktionsligning

Dvs. jo mere uddannelser, jo mere kriminalitet…

Effekten er statistisk signifikant.

xy + 50.18.51ˆ

Page 9: Anvendt Statistik Lektion 8

9

Eksempel: Kriminalitet i Florida (fortsat) Parvise korrelationer

Korrelationen mellem crime rate og urban-ization er 0.673 – vi har vist overset noget…

Teori: Jo mere urbaniseret, jo mere kriminalitet og jo flere med lang uddannelse.

Urbanization

Crime rate

Education

Page 10: Anvendt Statistik Lektion 8

10

Eksempel: Kriminalitet i Florida (fortsat) Multipel lineær regression af Crime rate (y) mod

både Uddannelser (x1) og Urbanisering (x2).

Prædiktionsligning:Urbanization

Crime rate

Education21 673.054.08.56ˆ xxy +

Bemærk: Effekten af uddannelser nu er negativ og ikke længere er signifikant (P-værdi >> 5%).

Page 11: Anvendt Statistik Lektion 8

11

Eksempel: Kriminalitet i Florida (fortsat) Prædiktionsligning:

Effekten af x1 (uddannelse) er den samme for alle værdier af x2 (ubanisering).

For hver ekstra procent-point uddannede falder crime rate med 0.54.

21 673.054.08.56ˆ xxy +

)4054.07.83ˆ 21 xxy (

)5054.04.90ˆ 21 xxy (

Bemærk at effekten af x1 (Uddannelse) ændrede sig markant, da vi tilføjede x2 (ubarnisering). Det tyder på at der er en stærk sammenhæng mellem x1 og x2.

x1 (Udd.)

y (crime)

Page 12: Anvendt Statistik Lektion 8

12

Simpsons paradoks - igen Sammenhæng mellem crime rate

og uddannelse Sort linje:

SLR for alle data Blå linje:

SLR kun for områder med høj grad af urbanisering (>50%).

Grøn linje: SLR kun for områder med lav

urbanisering. Bemærk hvor forskellig sammenhængen

er i de to grupper.

Page 13: Anvendt Statistik Lektion 8

13

Eksempel: Mentalt helbred Vi har tre variable:

y : Mental impairment (funktionsnedsættelse), afhængig var. x1 : Life events (alvorlige hændelser), første forklarende

variabel. x2 : Socioøkonomisk status (SES), anden forklarende var.

Multipel lineær regressionsmodel:yi = a + b1x1,i+b2x2,i+ei

MLR antager en lineær sammenhæng mellem y og hvert xj. Vi starter med et scatter plot for alle par af variable.

Page 14: Anvendt Statistik Lektion 8

14

Scatterplot Matrix Graphs → Chart builder → Scatter/Dot →Scatterplot Matrix Ingen åbenlyse ikke-lineære

sammenhænge. Ingen åbenbare sammenhænge i

det hele taget… Problem: Plot viser

sammenhængen mellem y og fx. x1, hvor vi ignorer effekten af x2.

Vi har set, at vi ikke kan ignorere effekten af x2, når vi ser på sammenhængen mellem y og x2.

Løsning: Partielle plot.

Page 15: Anvendt Statistik Lektion 8

15

Partielt plot (fortsat) Et partielt plot viser sammenhængen mellem y og (fx) x1 når

der er taget højde for de andre x’er. SPSS: Analyze → Regression → Linear → Plots → Produce

all partial plots.

Vi kan se, at Life events (stadig) har en positiv effekt på Mental impairment, når vi har taget højde for SES.

Page 16: Anvendt Statistik Lektion 8

16

Partielt plot – matematikken bag. Estimeret model (eksempel med tre forklarende variable)

Estimeret del-model (uden x1)

Regression af x1 mod x2 og x3 (hvordan afhænger x1 af x2 og x3)

Vi har to sæt residualer: (for y) og (for x1). Ide: plot mod .

exbxbxbay ++++ 332211

exbxbay ~~~~3322 +++

*3

*32

*2

*1 exbxbax +++

*ee~*ee~

Page 17: Anvendt Statistik Lektion 8

17

Partielt plot - fortolkning Estimeret model (eksempel med tre forklarende variable)

Regression af mod giver:

Interessant: Dvs. at hældningen i det partielle plot er den samme som effekten i den fulde model!

*ee~

eebae ˆˆˆ~ * ++

1ˆ bb

Bonus: Check at residualerne varierer usystematisk og at variationen er den samme langs linjen.

exbxbxbay ++++ 332211

Page 18: Anvendt Statistik Lektion 8

18

SPSS output – en eller to forkl. var. Simpel model – kun en forklarende variabel

Model med to forklarende variable:

Page 19: Anvendt Statistik Lektion 8

19

Multipel korrelation Husk: Korrelation angiver hvor lineært afhængig to variable er.

Multipel korrelation R for en lineær regression er korrelationen mellem de observerede og de prædikterede .

Bemærk: Den multiple korrelation kan ikke være negativ.

Korrelation mellem og err = 0.681.

yy

y

yyy

Page 20: Anvendt Statistik Lektion 8

20

Forklaret og uforklaret afvigelse yi’s afvigelse fra kan opdeles i to:

y

x

iy

iy

y

ix

Forklaret afvigelseTotale afvigelse

Uforklaret afvigelse

x

y

bxay +ˆ

Page 21: Anvendt Statistik Lektion 8

21

Multipel determinations koefficient Den totale variation i y’erne:

Den uforklarede del af variationen i y’erne:

Den forklarede del af variationen i y’erne:

i i yyTSS 2 (Total Sum of Squares)

i ii ii eyySSE 22ˆ (Sum of Squared Errors)

i i yySSR 2ˆ (Sum of Squars for Regression)

Page 22: Anvendt Statistik Lektion 8

22

Multipel determinations koefficient Der gælder

Dvs.Forklarede var. = Uforklarede var. + Forklarede var.

Determinationskoefficienten

Fortolkning: Andelen af den totale variation, der er forklaret.

SSRSSETSS +

TSSSSETSS

TSSSSRR

2

Page 23: Anvendt Statistik Lektion 8

23

Eksempel på R og R2

Lille modely = a + b1x1 +e

R2 = 0.139 Dvs. 13.9% af variationen i Mental impairment er forklaret af

Life events.

Stor modely = a + b1x1+b2x2+e

R2 = 0.339 Dvs. 33.9% af variationen i Mental impairment er forklaret af

Life events og SES. Bemærk: R2 er øget – vi kan forklare mere med flere variable.

Page 24: Anvendt Statistik Lektion 8

24

Egenskaber for R og R2

R2 er mellem 0 og 1 Jo højere R2, jo bedre kan modellen prædiktere y.

R2 = 1 betyder at yi = yi for alle i og alle residualer er nul. R2 = 0 betyder at b1 = b2 = … = bk = 0.

Når en variabel tilføjes modellen kan R2 ikke falde!

^

2RR

Page 25: Anvendt Statistik Lektion 8

25

MLR model:y = a + b1x1+b2x2+ ··· +bkxk +e

Er der mindst en af xj’erne der har en lineær sammenhæng med y?

Nul-hypotese: H0: b1 = b2 = … = bk = 0

Alternativ-hypotese: Ha: Mindst et bj 0

Teststørrelse:

Hypotesetest for MLR: F-test

)1(1 2

2

+

knRkRF

y har ingen lineær sammenhæng med et eneste xj.

y har en lineær sammenhæng med med mindst et af xj’erne.

Store værdier af F er kritisk for H0.

Page 26: Anvendt Statistik Lektion 8

26

F-testet

Hvis H0 er sand, så følger F en F-fordeling.

Som c2-fordelingen kan F-fordelingen kun tage positive værdier.

Faconen på F-fordelingen er bestemt af to sæt frihedsgrader df1 og df2:

P-værdi

Observeret F

df1 = k = antal forklarende variable. df2 = n – (k + 1) = n – ‘antal parametre i modellen’

Page 27: Anvendt Statistik Lektion 8

27

F-test: Eksempel Model for mentalt helbred:

y = a + b1x1 + b2x2 + e Fra SPSS har vi R2 = 0.339 Dvs.

P-værdien finder vi vha. SPSS (næste slide). Da P-værdien < 0.0005 afviser vi H0, dvs. y har en lineær

sammenhæng med mindst en af de to forklarende variable.

49.9340339.01

2339.0)1(1 2

2

+

knRkRF

P-værdi

9.49

F-fordeling med hhv. 2 og 47 frihedsgrader

Page 28: Anvendt Statistik Lektion 8

28

F-test i SPSS F-teststørrelsen kan omskrives:

495.9761.20119.197

340162.7682162.7684.1162

)1()1(1 2

2

+

+

MSEMSR

knSSEkSSR

knRkRF

SSE

SSRP-værdi

MSE

MSR

Page 29: Anvendt Statistik Lektion 8

29

MLR model:y = a + b1x1+b2x2+ ··· +bkxk +e

Er der en lineær sammenhæng mellem y og xj , når vi har kontrolleret for de andre x’er?

Nul-hypotese: H0: bj = 0

Alternativ-hypotese: Ha: bj 0

Teststørrelse:

Hvis H0 er sand, så følger t en t-fordeling med df = n-(k+1)

Hypotesetest af en enkel parameter bj

seb

t j

y har ingen lineær sammenhæng med xj.

y har en lineær sammenhæng med xj.

Udregnes af SPSS

Page 30: Anvendt Statistik Lektion 8

30

-3 -2 -1 0 1 2 3

Model for mentalt helbred: y = a + b1x1 + b2x2 + e

Fra SPSS har vi b1 = 0.103 og se = 0.032

Dvs.

Da P-værdien < 0.05, kan vi afviseH0-hypotesen. Dvs. der er en lineærsammenhæng mellem y og x1.

Hypotesetest af bj : Eksempel

P-værdi ≈ 0.003

t-fordeling med 37 frihedsgrader

t = 3.177-3.177

177.3032.0103.0

sebt

Page 31: Anvendt Statistik Lektion 8

31

Estimation af s Generelt er vores MLR model

y = a + b1x1+b2x2+ ··· +bkxk +e Vi antaget at fejlledene er normalfordelte med

standardafvigelse s. Et estimat af s er

Eksempel: MSRkn

SSEs +

1

56.4761.20340

162.768

s

MSR

Page 32: Anvendt Statistik Lektion 8

32

Vekselvirkning

Der er vekselvirkning mellem to forklarende variable, x1 og x2, for y, hvis effekt af x1 på y ændre sig når x2 ændre sig.

Simpel vekselvirkningsmodel:y = a + b1x1 + b2x2 + b3x1x2 + e

Hvor kommer interaktionen ind i billedet? Omskriv modellen til

y = (a + b2x2) + (b1+ b3x2) x1 + e Bemærk: Hældningen mht. x1 er b1+ b3x2, dvs. effekten af x1 på

y ændre sig, når x2 ændres.

Page 33: Anvendt Statistik Lektion 8

33

Vekselvirkning: Eksempel Simpel vekselvirkningsmodel:

y = a + b1x1 + b2x2 + b3x1x2 + e Vha. Transform → Compute variable skaber vi variablen

x1x2 = x1*x2 Følgende test viser at interaktionen ikke er signifikant:

Da vekselvirkningen ikke er signifikant, kan man vælge at fjerne den. Hvis vekselvirkningen er signifikant, beholder vi det. I det tilfælde giver det

ikke mening at teste de enkelte led (x1 og x2).

Page 34: Anvendt Statistik Lektion 8

34

Vekselvirkning: Eksempel (fortsat)

Estimeret vekselvirkningsmodel:y = 26.037 + 0.156·x1 – 0.060·x2 – 0.01· x1·x2

)0(156.0037.26ˆ 21 + xxy

)50(113.0012.23ˆ 21 + xxy

)100(069.0987.19ˆ 21 + xxy

Fortolkning: Når vi øger x2, så

Reduceres skæringspunktet Reduceres hældningen. Dvs. effekten af x1 på y reduceres.

x1

y