Stark korrelation mellan förklaringsvariabler. Exempel: Vad påverkar kostnaden för produktion av korrugerat papper, dvs sådant som ingår i wellpapp och kartonger? Amerikansk studie: Kostnaden kan förmodligen förklaras av en eller flera av följande variabler: • produktionsmängden (PAPER) • maskintid (MACHINE) • overhead-kostnader (OVERHEAD) • antal direkta personarbetstimmar (LABOR)
36
Embed
Stark korrelation mellan förklaringsvariabler. Exempel:
Stark korrelation mellan förklaringsvariabler. Exempel: Vad påverkar kostnaden för produktion av korrugerat papper, dvs sådant som ingår i wellpapp och kartonger? Amerikansk studie: Kostnaden kan förmodligen förklaras av en eller flera av följande variabler: produktionsmängden (PAPER) - PowerPoint PPT Presentation
Welcome message from author
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Stark korrelation mellan förklaringsvariabler.
Exempel:
Vad påverkar kostnaden för produktion av korrugerat papper, dvs sådant som ingår i wellpapp och kartonger?
Amerikansk studie: Kostnaden kan förmodligen förklaras av en eller flera av följande variabler:
• produktionsmängden (PAPER)
• maskintid (MACHINE)
• overhead-kostnader (OVERHEAD)
• antal direkta personarbetstimmar (LABOR)
Insamlade månadsvisa data:
MONTH COST PAPER MACHINE OVERHEAD LABOR
1 1102 550 218 112 325
2 1008 502 199 99 301
3 1227 616 249 126 376
4 1395 701 277 143 419
… … … … … …
27 1388 704 281 142 429
Grafisk illustration av ev. samband:
Pröva först en modell där kostnaden förklaras av samtliga förklaringsvariabler:
Regression Analysis: COST versus PAPER, MACHINE, OVERHEAD, LABOR
Hög förklaringsgrad, men alla x-variabler är ej signifikanta
Varför kan vi inte hitta samma samband i regressionsmodellen som vi såg genom visuell inspektion?
Kan det vara så att förklaringsvariablerna ”överlappar” varandra när det gäller att förklara kostnaden?
Vi kan undersöka detta genom att plotta de förklarande variablerna mot varandra.
Tydligt samband mellan alla par av förklaringsvariabler.
Vi kan också beräkna parvisa korrelationskoefficienter mellan förklaringsvariabler:
Correlations: PAPER, MACHINE, OVERHEAD
PAPER MACHINE
MACHINE 0.989
OVERHEAD 0.978 0.994
Cell Contents: Pearson correlation
och vi ser att samtliga korrelationer ligger mycket nära 1.
Om korrelationen är hög (över 0.9) mellan två förklaringsvariabler kan modellen bli svår att analysera. Vi kan t.ex. få:
• konstiga värden på parameterskattningar (t. ex. negativa lutningsparametrar där sambandet ska vara positivt)
• förklaringsvariabler är inte signifikanta, fastän man kan se ett tydligt linjärt samband mellan variabeln och responsen
Eftersom flera förklarande variabler representerar samma påverkan är det svårt att separera vad i varje förklaringsvariabel som främst förklarar variationen i y.
Problemet kallas för multikollinjäritet.
Vad det handlar om är att en förklaringsvariabel är nära linjärt beroende av en eller flera (därav multi) av de andra förklaringsvariablerna.
Hur upptäcker man och hur åtgärdar man detta?
Metod 1:
• Beräkna korrelationskoefficienterna mellan samtliga par av variabler, dvs även med y.
• Om två eller flera av förklaringsvariablerna har höga korrelationer med varandra, uteslut en av dessa men inte den som har högst korrelation med y. Pröva igen
Alla korrelationer är högre än 0.9. MACHINE har högst korrelation med COST och bör då vara den variabel som väljs.
(Dock är PAPER en mycket nära kandidat här.)
Metod 2:
Om det föreligger starka samband mellan en förklaringsvariabel och en eller flera av de övriga förklaringsvariablerna kan man tänka sig en modell där den första förklaras av de andra.
T ex om x1 har starka samband med variablerna x2, x3, x4 blir en modell:
x1 = 0 1 x2 2 x3 3 x4
Om denna modell anpassas erhålls en förklaringsgrad R12 , som
anger hur stor del av den totala variationen i x1 som förklaras av de övriga x-variablerna.
Är R12 stor, borde man kunna utesluta x1 ur modellen för y.
Den s k Variance Inflation Factor, VIF, för variabeln x1 definieras som
Och vi ser att för ett stort värde hos R12 blir också VIF1 stor.
VIF kan som lägst bli 1 vilket inträffar då R12=0.
Om R12=1 skulle VIF bli oändligt stor.
Om vi t.ex. anpassar en regressionsmodell
x1 = 0 1 x2 2 x3 3 x4 , så får vi...
förklaringsvariabler
21
1 11R
VIF
Regression Analysis: PAPER versus MACHINE, OVERHEAD, LABOR
VIF finns förstås definierad för varje ingående x-variabel som
där Rj2 = förklaringsgraden i en anpassad modell där xj
förklaras av övriga x-variabler.
Om det största av dessa VIF-värden är större än 10 eller om medelvärdet av samtliga VIF-värden är betydligt större än 1 anser man att det föreligger problem med (multi)kollinearitet.
VIF-värden kan fås automatiskt i Minitab-utskriften:
211
jj R
VIF
Regression Analysis: COST versus PAPER, MACHINE, OVERHEAD, LABOR
Vi ser att det råder stora problem med (multi)kollinearitet här!
Är (multi)kollinearitet alltid ett bekymmer?
• När den anpassade modellen används för att förklara variation och tolka samband är det viktigt att multikollinearitet undviks. Tolkningarna blir annars lätt missvisande.
• Är målet med analysen att göra prognoser i nya punkter spelar det mindre roll om de inkluderade förklarande variablerna är korrelerade.
Val mellan olika modeller – modellbygge:
Ett företag undersöker 25 säljdistrikt med avseende på försäljning. Man vill försöka förklara försäljningen (SALES) med följande variabler:
• x1 (TIME) = den tid (i månader) som säljaren har varit anställd.
• x2 (POTENT) = totala industriförsäljningens volym i distriktet
• x3 (ADV) = annonskostnader (i dollar)
• x4 (SHARE) = företagets genomsnittliga marknadsandel i distriktet (de senaste 4 åren)
• x5 (SHARECHG) = förändringen i marknadsandel i distriktet jämfört med perioden före de senaste fyra åren.
• x6 (ACCTS) = antal kontrakt som säljaren arbetat med
• x7 (WORKLOAD) = faktor för arbetsbelastningen hos säljaren
• x8 (RATING) = bedömningsmått på säljaren satt av försäljningsansvarig
SALES TIME POTENT ADV SHARE SHARE- ACCTS WORK- RATING
Minitab: Vi använder funktionen ’best subset regression’ för att ta fram de två bästa modellerna i varje modellstorlek (de två som har de högsta R2-värdena).
Modellstorlek: antal förklarande variabler i modellen
Förutom R2-värdena får vi med ’best subsets’ metoden även justerade förklaringsgrader, s.
Best Subsets Regression: SALES versus TIME, POTENT, ...
Response is SALES S W H O P A R R O S R A K A T T H E C L T I E A A C C O I M N D R H T A N Vars R-Sq R-Sq(adj) C-p S E T V E G S D G
1 56.8 55.0 67.6 881.09 X 1 38.8 36.1 104.6 1049.3 X 2 77.5 75.5 27.2 650.39 X X 2 74.6 72.3 33.1 691.11 X X 3 84.9 82.7 14.0 545.52 X X X 3 82.8 80.3 18.4 582.64 X X X 4 90.0 88.1 5.4 453.84 X X X X 4 89.6 87.5 6.4 463.95 X X X X 5 91.5 89.3 4.4 430.23 X X X X X 5 91.2 88.9 5.0 436.75 X X X X X 6 92.0 89.4 5.4 428.00 X X X X X X 6 91.6 88.9 6.1 438.20 X X X X X X 7 92.2 89.0 7.0 435.67 X X X X X X X 7 92.0 88.8 7.3 440.30 X X X X X X X 8 92.2 88.3 9.0 449.03 X X X X X X X X
Gemensamt för de här metoderna är att man testar en variabel i taget. Med hjälp av några kriterier som man bestämmer i förväg kan man sen avgöra om denna variabel ska läggas till i modellen (tas bort från modellen) eller inte.
Framåtvalsprincipen (Forward selection):
1. Välj först den x-variabel som har högst absolut korrelation med y. (Den variabel som ger högst R2 och lägst SSE).
2. Testa med t- eller F-test om denna variabel blir signifikant
3. Om den blir det, behåll den i modellen. Om inte, så finns det ingen bra modell.
4. Anpassa alla modeller med ytterligare en x-variabel. Använd sen den variabel som har lägst p-värde.
5. Testa med t-test eller partiellt F-test om den andra x-variabeln blir signifikant.
6. Om den blir det, behåll även denna variabel i modellen. Om inte, stanna vid den tidigare modellen med en förklarande variabel.
7. Fortsätt på motsvarande sätt tills inga nya signifikanta variabler kan läggas till.
I ”vårt” datamaterial:Correlations: SALES, TIME, POTENT, ADV, SHARE, SHARECHG, ACCTS, WORKLOAD, RATING
SALES TIME POTENT ADV SHARE SHARECHG ACCTS WORKLOADTIME 0.623 0.001
Slutlig modell är alltså den med ACCTS, ADV, POTENT och SHARE, dvs samma som framåtvals-principen gav.
Ingen av de tre algoritmerna är optimal i något avseende och olika modeller kan fås.
Det är inte heller så att någon med nödvändighet ger den bästa modellen.
Algoritmerna skall kombineras med förnuft och residualanalys.
Speciellt viktigt är det att inte utan att fundera stoppa in alla variabler man har i modellen, utan att börja med en vettig uppsättning relevanta variabler.