WORKSHOP 11: ARIMA model checking 1) Unemployment Data Step 1: Compute the ACF, PACF, and Spectrum of the estimated residuals. Is there any indication of a 'forgotten' process? Re-identify the ARIMA model (if necessary) and re-estimate the parameters (and forecast). Important : do not apply any new model estimations/forecasts to the residuals (use the original data instead).
50
Embed
UNEMPLOYMENT DATA - Telenetusers.telenet.be/audreygoeman/2eLic/Statistiek/ws11_ARI... · Web viewSkewness and Kurtosis - Ungrouped Data Skewness Measure Value Kurtosis Measure Value
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
WORKSHOP 11: ARIMA model checking1) Unemployment DataStep 1: Compute the ACF, PACF, and Spectrum of the estimated residuals. Is there any indication of a 'forgotten' process? Re-identify the ARIMA model (if necessary) and re-estimate the parameters (and forecast). Important: do not apply any new model estimations/forecasts to the residuals (use the original data instead).
De ACF en PACF verlopen gelijkaardig, wat er op wijst dat er niet langer sprake is van een patroon. Dit wordt bevestigd door de (partiële) autocorrelatiecoëfficiënten. Deze coëfficiënten, zowel de seizoenale als niet-seizoenale zijn niet buiten het betrouwbaarheidsinterval gelegen, waardoor er van een (S)AR- of (S)MA-patroon geen sprake kan zijn.
Wanneer het Cumulative Periodogram en het Spectrum worden bekeken, blijkt dat er geen lange termijn noch een korte termijntrend aanwezig te zijn. Er vallen wel nog enkele (weinig uitgesproken) ‘trappen’ te determineren, maar van seizoenaliteit is overduidelijk geen sprake. De voornaamste vaststelling is dus dat de residu’s geen trendmatig verloop vertonen. Bovendien is het Spectrum ook volledig binnen de grenzen bepaald door het betrouwbaarheidsinterval gelegen.
Step 2: Examine the following diagnostics of the residuals: variability, histogram, rootogram, entropy concentration, skewness & kurtosis, and percentiles. Are the residuals normally distributed? What do you think would happen if they are not normally distributed? Does this influence your analysis?
Een eerste manier om na te gaan of de residu’s normaal verdeeld zijn, is gebruik te maken van een histogram. Voor de unemployment data werd gekozen voor 24 klassen (K = 24). Op het eerste zicht schijnen de residu’s een verloop te vertonen dat min of meer overeenkomt met dat van de Gauss-verdeling. Op deze vaststelling mag men echter niet volledig vertrouwen. Daarom dient men bijkomende zekerheid te verkrijgen door een beroep te doen op het rootogram, dat betrekking heeft op de werkelijke frequenties en de frequenties die worden verwacht.
Uit onderstaand rootogram kan men afleiden dat de residu’s normaal verdeeld zijn. Immers, van de 36 klassencoëfficiënten zijn er slechts twee significant verschillend van nul (in absolute waarde groter dan twee). Dit is mogelijk door de aanwezigheid van outliers, maar de bijkomende bevestiging door de Chi-kwadraat test (α = 5%)
doet ons besluiten dat deze extreme waarden geen doorslaggevende invloed hebben.
Suspended rootogram of AG_unempl_lo.ds.res by bind = 0 D = 0 L = 1Chi-square test at 5%:THIS SERIES IS NORMALLY DISTRIBUTED
Hierboven is de Lorenz Curve afgebeeld. De daarmee gepaard gaande Gini-coëfficiënt is gelijk aan 0.5. Deze mag niet te dicht bij 0 of 1 mag liggen, dus een waarde van 0.5 is zeer aannemelijk. Ik beschik echter niet over een ‘geoefend oog’ om aan de hand van de vorm van de Lorenz-curve een scheefheid te herkennen, maar dit wordt ook niet van ons verwacht.
Bij onderstaande Relative Contribution dient men de gele lijn, die van de residu’s van de unemployment data, te vergelijken met de witte lijn. Deze laatste geeft aan hoe de Relative Contribution in ideale omstandigheden zou moeten verlopen, namelijk volgens de normaalverdeling. Hieruit blijkt dat onze residu’s een iets spitser verloop kennen ten opzichte van deze normaalverdeling. Het vastgestelde resultaat is desalniettemin bevredigend. Toch dient opgemerkt te worden dat deze methode minder betrouwbaar is dan het voorheen besproken rootogram.
De Skewness vertelt iets over de ‘scheefheid’ van de verdeling, in dit geval de verdeling van de storingstermen. Bij een positieve, dan wel van een negatieve skweness is er respectievelijk sprake van een rechtsscheve, dan wel een linksscheve verdeling ten opzichte van de normaalverdeling, welke een skewness heeft van nul.
De Kurtosis daarentegen gaat na of de staarten van de verdeling van de residu’s dikker of dunner zijn dan deze van de normaalverdeling. Ook hier is voor de normaalverdeling de Kurtosis gelijk aan nul.
Om hieromtrent een zinnig besluit te trekken, dient men zich te baseren op de Fisher Test 1 & 2 en hun bijhorende waarschijnlijkheden. Aan de hand van de waarde dient men de nulhypothese al dan niet te verwerpen. De nulhypothese voor de Fisher 1 Test luidt als volgt: de residu’s van de unemployment data komen qua skewness overeen met de normaalverdeling. Het is een algemeen gegeven dat “the smaller the p-value, the more statistical evidence exist to support the alternative hypothesis”. Omdat bij de Fisher 1 test de p-waarde (0.0278) gelegen is tussen 1% en 5%, is er sprake van een ‘strong evidence to infer that the alternative hypothesis is true’ of met andere woorden: de skewness komt niet overeen met die van de normaalverdeling. De interpretatie met betrekking tot de Fisher 2 test is analoog. Aangezien de p-waarde (0.0602) gelegen is tussen de vijf en tien procent, kan men dus stellen dat kurtosis van de residu’s overeenkomt met die van de normaalverdeling. Om echter absolute zekerheid te hebben moet de p-waarde groter zijn dan 10%, immers in dat geval is er ‘no evidence to infer that the alternative hypothesis is true’.
Skewness and Kurtosis - Ungrouped DataSkewness Measure Value Kurtosis Measure ValueFISHER 3rd Cent. Mom. 0.041742 FISHER 4th Cent. Mom. 0.270934FISHER beta 1 0.080350 FISHER beta 2 3.484071FISHER gamma 1 0.283460 FISHER gamma 2 0.484071FISHER gamma 1 (S.E.) 0.129279 FISHER gamma 2 (S.E.) 0.258558FISHER Test 1 2.192622 FISHER Test 2 1.872192FISHER Test 1 Probability 0.027800 FISHER Test 2 Probability 0.060200Pearson 2 0.186981Yule using Quartile definition:Weighted Average at Xnp 0.043303
Yule using Quartile definition:Weighted Average at X(n+1)p 0.047806
Yule using Quartile definition:Empirical Distribution Function 0.047806
Yule using Quartile definition:Empirical Distribution Function - Averaging 0.047806
Yule using Quartile definition:Empirical Distribution Function - Interpolation 0.049109
Yule using Quartile definition:Closest Observation 0.044858
Yule using Quartile definition:True Basic - Statistics Graphics Toolkit 0.047806
Yule using Quartile definition:MS Excel (old versions) 0.047806
Het verwijderen van de meest extreme waarden (outliers) zal een invloed hebben de skewness en kurtosis van de residu’s en bijgevolg ook op de p-waarde. Hiertoe wordt gebruik gemaakt van de Trimmed Skewness en Trimmed Kurtosis, weergegeven in onderstaande tabel. Zoals boven geconcludeerd, dient de p-waarde zo groot mogelijk te zijn, of in ieder geval toch groter dan 10%. Uit de tabel kan je aflezen dat de p-waarde van de trimmed skweness toeneemt naarmate meer extreme waarden buiten beschouwing worden gelaten. Bij de trimmed kurtosis zien we allereerst een toename van de p-waarde, waarna deze vervolgens weer afneemt. Er mogen bijgevolg niet al te veel outliers weggelaten worden. Indien echter de drie meest extreme residu’s buiten beschouwing worden gelaten, levert dit de beste resultaten op aangaande skewness en kurtosis.
Trimmed Skewness and Kurtosis (small sample) - Ungrouped DataSkewness Measure (small sample) Value Probabilit
Bovenstaande bevindingen kan men ook afleiden uit de volgende twee grafieken. Het voornaamste is dat de upper en lower limit respectievelijk boven en onder de X-as gelegen zijn. Wanneer nog alle residu’s in beschouwing worden genomen, blijkt dat zowel bij de trimmed skweness als bij de trimmed kurtosis hieraan niet voldaan is. Het weglaten van enkele outliers heeft wel degelijk een positieve invloed.
Step 3: Compute various measures of central tendency for the residuals. Is the mean significantly different from zero? How robust is this hypothesis? What happens if the residual mean is significantly different from zero?Om te voldoen aan de voorwaarden dienen de verscheidene t-statistieken niet significant verschillend van nul te zijn. De t-statistiek van het Arithmetic Mean is significant verschillend van nul, maar ligt in absolute waarde toch dicht bij twee. Wat de Winsorized Mean betreft, kunnen we ook stellen dat deze steeds rond de absolute waarde 2 schommelt, maar indien de staarten van het histogram gelijk worden gemaakt door x aantal extreme waarden gelijk te stellen aan minder extreme waarden, merken we dat de t-statistiek niet significant wordt. De Trimmed Mean is ook slechts niet significant verschillend van nul wanneer een aantal ouliers worden weggelaten. Voor de unemployment data is er sprake van ‘niet-significantie’ wanneer er 2 of meer residu’s buiten beschouwing worden gelaten. Wanneer echter veel residu’s (9 of meer) worden weggelaten, merken we dat de t-statistiek terug toeneemt, maar dat deze wel significant blijft indien er minder dan 30 worden weggelaten. Over het Geometric Mean, Harmonic Mean, Quadratic Mean, Median, Midrange en Midmean kan ik echter niks zinnig vertellen, daar ik niet beschik over de bijhorende t-statistieken.
Central Tendency - Ungrouped DataMeasure Value S.E. Value/S.E.
Arithmetic Mean 0.006731 0.027910 0.241185Standard Error 0.528810
Quadratic Mean 0.528116Winzorized Mean (0/359) 0.006731 0.027910 0.241185Winzorized Mean (1/359) 0.007184 0.027830 0.258145Winzorized Mean (2/359) 0.007358 0.027582 0.266758Winzorized Mean (3/359) 0.006129 0.027304 0.224480Winzorized Mean (4/359) 0.005450 0.027040 0.201563Winzorized Mean (5/359) 0.005361 0.026894 0.199354Winzorized Mean (6/359) 0.005205 0.026826 0.194031Winzorized Mean (7/359) 0.005350 0.026739 0.200080Winzorized Mean (8/359) 0.004477 0.026595 0.168347Winzorized Mean (9/359) 0.003995 0.026450 0.151056Winzorized Mean (10/359) 0.003754 0.026401 0.142204Winzorized Mean (11/359) 0.001130 0.025974 0.043518Winzorized Mean (12/359) -0.000275 0.025718 -0.010679Winzorized Mean (13/359) -0.000054 0.025636 -0.002121Winzorized Mean (14/359) 0.000691 0.025506 0.027080Winzorized Mean (15/359) 0.001137 0.025391 0.044798Winzorized Mean (16/359) 0.000832 0.025145 0.033090Winzorized Mean (17/359) 0.000009 0.025027 0.000346Winzorized Mean (18/359) -0.000456 0.024964 -0.018263Winzorized Mean (19/359) 0.000047 0.024706 0.001905Winzorized Mean (20/359) 0.000067 0.024640 0.002739Winzorized Mean (21/359) 0.001371 0.024489 0.055975Winzorized Mean (22/359) 0.002105 0.024272 0.086731Winzorized Mean (23/359) 0.001009 0.024054 0.041945Winzorized Mean (24/359) 0.002210 0.023851 0.092661Winzorized Mean (25/359) 0.001525 0.023530 0.064802Winzorized Mean (26/359) 0.001612 0.023501 0.068577Winzorized Mean (27/359) 0.003350 0.023335 0.143546Winzorized Mean (28/359) 0.002718 0.023273 0.116793Winzorized Mean (29/359) 0.002730 0.023255 0.117377Winzorized Mean (30/359) 0.001363 0.023047 0.059122Winzorized Mean (31/359) 0.000473 0.022920 0.020643Winzorized Mean (32/359) -0.000849 0.022584 -0.037578Winzorized Mean (33/359) -0.005702 0.022140 -0.257529Winzorized Mean (34/359) -0.005943 0.022039 -0.269656Winzorized Mean (35/359) -0.005030 0.021955 -0.229089Winzorized Mean (36/359) -0.001331 0.021597 -0.061650Winzorized Mean (37/359) -0.002565 0.021457 -0.119558Winzorized Mean (38/359) -0.002498 0.021399 -0.116734Winzorized Mean (39/359) -0.001401 0.021305 -0.065780Winzorized Mean (40/359) -0.000098 0.021140 -0.004659Trimmed Mean (0/359) 0.006731 0.027910 0.241185
De bovenstaande bevindingen worden gestaafd door de twee grafieken die hier geïllustreerd worden. De upper en lower limit zijn respectievelijk boven en onder de X-as gelegen en zowel het Winsorized Mean als Trimmed Mean schommelen rond de 0. Zoals hierboven reeds werd beschreven is het best een aantal observaties buiten beschouwing te laten. Echter, een teveel aan residu’s weglaten heeft een negatief effect op de gemiddeldes. Dit blijkt vooral uit de grafiek van het trimmed mean, die verder verwijdert ligt van nul bij het weglaten van een te groot aantal residu’s.
Step 4: How could we describe (compute) the 50% confidence interval (of a 1-step-ahead forecast) based on variability, quartiles, and percentiles? What computation would you use to derive the 83% confidence interval?Wat betreft de variability kan men kijken naar het verschil tussen de variabiliteitsmaatstaven ten aanzien van het gemiddelde en dezelfde maatstaven ten aanzien van de mediaan. Indien beide sterk van elkaar verschillen, zal je niet te maken hebben met een normaalverdeling. Omdat de Mean Absolute Deviation (MAD), Median Absolute Deviation en Mean Squared Deviation van de mediaan en het gemiddelde nagenoeg aan elkaar gelijk zijn, kan men dus stellen dat er sprake is van een normaalverdeling. Ook het verschil tussen de grootste en de kleinste meetuitslag mag niet al te groot zijn. Hier is de range ongeveer gelijk aan 3.37 wat
bevredigend is. Daarnaast kan men zich ook nog baseren op de variantie en de standard error, die niet te groot mogen zijn. Ook dit is hier het geval.
Trimmed, Unbiased Variance (33/359) 0.116075Trimmed, Unbiased Variance (34/359) 0.113836Trimmed, Unbiased Variance (35/359) 0.111618Trimmed, Unbiased Variance (36/359) 0.109416Trimmed, Unbiased Variance (37/359) 0.107382Trimmed, Unbiased Variance (38/359) 0.105394Trimmed, Unbiased Variance (39/359) 0.103407Trimmed, Unbiased Variance (40/359) 0.101438Variance (biased) 0.278861Standard Error (unbiased) 0.528810Standard Error (biased) 0.528073Coefficient of Variation (unbiased) 78.559144Coefficient of Variation (biased) 78.449654Mean Squared Error (MSE versus 0) 0.278907Mean Squared Error (MSE versus Mean) 0.278861Mean Absolute Deviation from Mean (MAD Mean) 0.411215Mean Absolute Deviation from Median (MAD Median) 0.410023Median Absolute Deviation from Mean 0.328290Median Absolute Deviation from Median 0.323866Mean Squared Deviation from Mean 0.278861Mean Squared Deviation from Median 0.279948Interquartile Difference (Weighted Average at Xnp) 0.652869Interquartile Difference (Weighted Average at X(n+1)p) 0.652948Interquartile Difference (Empirical Distribution Function) 0.652948Interquartile Difference (Empirical Distribution Function - Averaging) 0.652948Interquartile Difference (Empirical Distribution Function - Interpolation) 0.650216Interquartile Difference (Closest Observation) 0.650933Interquartile Difference (True Basic - Statistics Graphics Toolkit) 0.652948Interquartile Difference (MS Excel (old versions)) 0.652948Semi Interquartile Range (Weighted Average at Xnp) 0.326435Semi Interquartile Range (Weighted Average at X(n+1)p) 0.326474Semi Interquartile Range (Empirical Distribution Function) 0.326474Semi Interquartile Range (Empirical Distribution Function - Averaging) 0.326474Semi Interquartile Range (Empirical Distribution Function - Interpolation) 0.325108Semi Interquartile Range (Closest Observation) 0.325466Semi Interquartile Range (True Basic - Statistics Graphics Toolkit) 0.326474Semi Interquartile Range (MS Excel (old versions)) 0.326474Coefficent of Quartile Variation (Weighted Average at Xnp) -26.995416Coefficent of Quartile Variation (Weighted Average at X(n+1)p) -30.740811Coefficent of Quartile Variation (Empirical Distribution Function) -30.740811Coefficent of Quartile Variation (Empirical Distribution Function - Averaging) -30.740811Coefficent of Quartile Variation (Empirical Distribution Function - Interpolation) -31.680796Coefficent of Quartile Variation (Closest Observation) -27.990297
Coefficent of Quartile Variation (True Basic - Statistics Graphics Toolkit) -30.740811Coefficent of Quartile Variation (MS Excel (old versions)) -30.740811Number of all Pairs of Observations 64261.000000Squared Differences between all Pairs of Observations 0.559281Mean Absolute Differences between all Pairs of Observations 0.589980Gini's Mean Difference 0.589980Leik's Measure of Dispersion -42.823227Index of Diversity -16.145817Index of Qualitative Variation -16.190917Coefficient of Dispersion 15.633191Observations 359
Quartiles - Ungrouped DataMethod Quartile 1 Quartile 2 Quartile 3Weighted Average at Xnp -0.338527 -0.026767 0.314342Weighted Average at X(n+1)p -0.337094 -0.026228 0.315854Empirical Distribution Function -0.337094 -0.026228 0.315854Empirical Distribution Function - Averaging -0.337094 -0.026228 0.315854Empirical Distribution Function - Interpolation -0.335370 -0.026228 0.314846Closest Observation -0.337094 -0.026228 0.313839True Basic - Statistics Graphics Toolkit -0.337094 -0.026228 0.315854MS Excel (old versions) -0.337094 -0.026228 0.315854Observations 359
Wil het verloop van de residu’s niet afwijken van dit van de normaalverdeling, moet de absolute waarde van het eerste en derde kwartiel min of meer aan elkaar gelijk zijn. Daarenboven moet het tweede kwartiel ongeveer gelijk zijn aan nul. Uit de bovenstaande tabel blijkt dat deze voorwaarde voldaan is en kunnen we zeggen dat de residu’s (min of meer) normaal verdeeld zijn.
De onder- en bovengrens van het 50% betrouwbaarheidsinterval zijn respectievelijk gelijk aan kwartiel één (Q1) en kwartiel drie (Q3). Immers, Q1 bevat 25% en Q3 75% van de waarnemingsgetallen, met als gevolg dat het interval [Q1; Q3] of in dit geval het interval [-0.338527; 0.314342] vijftig procent van de waarnemingsgetallen bevat. De breedte van het 50% betrouwbaarheidsinterval is bijgevolg gelijk aan 0.652869 (0.338527 + 0.314342). Dit getal kan ook afgelezen worden uit Variability-tabel. Het 83% betrouwbaarheidsinterval kan men aan de hand van de kwartielen echter niet berekenen.
Wat de bespreking van de percentielen betreft, baseer ik mij op op de “Empirical Distribution Function - Interpolation”. Het p-de percentiel met waarde x dient men te interpreteren als het percentage (p) van de waarnemingsgetallen dat kleiner of gelijk is aan deze waarde. Zo is bijvoorbeeld 25% (p = 0.25) van de waarnemingsgetallen kleiner of gelijk aan - 0.3354.
Om te spreken van een normaalverdeling moet de overgang tussen min en plus ongeveer bij het vijftigste percentiel plaatsvinden. Bij de unemployment data treffen we deze overgang aan bij het 52ste en 53ste percentiel en is aan deze voorwaarde dus voldaan. Ook het gelijk zijn aan nul treft men hier aan. Daarnaast moeten de absolute waarden van een percentiel (%) en zijn complement (1 - %) ook ongeveer met elkaar overeenstemmen. Zo is de absolute waarde van het 25e percentiel (p = 0.25) gelijk aan 0.3354, terwijl het 75e percentiel (p = 0.75) een absolute waarde heeft van 0.3148. Beide absolute waarden stemmen min of meer overeen. Uit dit alles mogen we besluiten dat de residu’s normaal verdeeld zijn.
Ook uit onderstaande QQ Plot kan men dezelfde conclusies trekken. Immers, de percentielen zijn overwegend op de diagonaallijn gelegen. Met andere woorden: de percentielen van de unemployment data komen dus min of meer overeen met deze van de normaalverdeling.
De onder- en bovengrens van het 50% betrouwbaarheidsinterval zijn respectievelijk gelijk aan het 25e en 75e percentiel. Bijgevolg zal het interval [-0.3354; 0.3148] met een breedte van 0.6502 (0.3354 + 0.3148) vijftig procent van de waarnemingsgetallen bevatten.
Voor het bepalen van het 83% betrouwbaarheidsinterval zou men aan de linker- en rechterkant 8.5% moeten nemen. Het is niet mogelijk te werken met percentielen bestaande uit gehele getallen, daarom wordt gekozen voor de gulden middenweg. Allereerst hebben we de onder- en bovengrens respectievelijk bepaald door het 8e en 92e percentiel en krijgt men het interval [-0.7007; 0.7729] met als breedte 1.4736 (0.7007 + 0.0.7729). Daarnaast heeft men als onder- en bovengrens respectievelijk het 9e en 91e percentiel, waarmee men het het interval [-0.6764; 0.6955] met breedte 1.3719 (0.6764 + 0.6955) verkrijgt. Voor mijn gulden middenweg bereken ik gewoon het gemiddelde van de bekomen onder- en bovengrenzen. Ik verkrijg dus het interval [(-0.7007 + -0.6764) / 2; (0.7729 + 0.6955) / 2] of [-0.68855; 0.7342] dat als breedte 1.42275 (0.68855 + 0.7342) heeft.
Step 5: Are the residuals of the time series white noise?Uit de bovenstaande analyse besluit ik dat de residu’s van de unemployment data white noise zijn. Bij de ACF en de daarop gelijkende PACF van de residu’s was er immers niet langer sprake van een specifiek patroon. Daarnaast kon men uit het histogram en rootogram afleiden dat de residu’s min of meer normaal verdeeld zijn. Deze bevindingen werden ook gestaafd aan de hand van de Entropy Concentration output, waaruit men kon afleiden dat het verloop van de residu’s iets spitser is in vergelijking met dat van de normaalverdeling. Wat verder bleek dat er sprake was van enkele outliers, die ook al opgemerkt werden bij de analyse van het rootogram. Uit de bespreking van de skweness en kurtosis bleek dat het opportuun is de drie meest extreme waarden te elimineren. Uitgaande van het trimmed en winsorised mean zouden respectievelijk 2 en 5 outliers verwijderd moeten worden wanneer men zich op de desbetreffende t-statistiek concentreert. Tot slot bood de analyse van de
variability, kwartielen en percentielen bijkomende overtuiging om te zeggen dat de residu’s normaal verdeeld zijn. Bijgevolg is er dus geen enkele reden om aan te nemen dat herschatting van het model nodig zou zijn.
2) Werkloze Werkzoekenden in de periode 07/1997 – 09/2005
Step 1: Compute the ACF, PACF, and Spectrum of the estimated residuals. Is there any indication of a 'forgotten' process? Re-identify the ARIMA model (if necessary) and re-estimate the parameters (and forecast). Important: do not apply any new model estimations/forecasts to the residuals (use the original data instead).
De ACF en PACF kennen min of meer eenzelfde verloop, er is niet langer sprake van een patroon.
Uit het Spectrum en Cumulative Periodogram valt geen lange termijntrend te determineren. De seizoenaliteit is bijgevolg verdwenen, maar toch is er een andere achterliggende oorzaak. Een bijkomende meevaller is dat het Spectrum bijna volledig binnen de grenzen van het betrouwbaarheidsinterval gelegen is.
Step 2: Examine the following diagnostics of the residuals: variability, histogram, rootogram, entropy concentration, skewness & kurtosis, and percentiles. Are the residuals normally distributed? What do you think would happen if they are not normally distributed? Does this influence your analysis? Een eerste manier om na te gaan of de residu’s normaal verdeeld zijn, is gebruik maken van het histogram. Hier werd gekozen om 24 klassen (K = 24) te gebruiken. Men dient wel op te merken dat men op het histogram niet honderd procent mag vertouwen en moet men bijkomende zekerheid verkrijgen aan de hand van het rootogram..
Uit onderstaand rootogram kan men afleiden dat de residu’s normaal verdeeld zijn. Ook de Chi-kwadraat test (α = 5%) ondersteunt de vaststelling dat de storingstermen normaal verdeeld zijn.
Suspended rootogram of AG_wlh_zoek.ds.res by bind = 0 D = 0 L = 1Chi-square test at 5%:THIS SERIES IS NORMALLY DISTRIBUTED
Hierboven is de Lorenz Curve afgebeeld. De daarmee gepaard gaande Gini-coëfficiënt is gelijk aan 0.607558. Deze mag niet te dicht bij 0 of 1 liggen, dus de bekomen waarde is aannemelijk.
Bij onderstaande Relative Contribution dient men de gele lijn te vergelijken met de witte lijn. Men kan er niet direct een volledige Gauss-vormige klokvorm in herkennen. Dit is analoog met wat bij het histogram werd vastgesteld, namelijk de scheefheid van de verdeling van de residu’s. Analoog met de unemployment data is de verdeling ook iets spitser dan deze van de normaalverdeling. , Omdat men zich op het visuele aspect richt, dient men wel op te merken dat deze methode minder betrouwbaar is dan het voorheen besproken rootogram die een meer betrouwbare Chi-kwadraat teststatistiek oplevert.
De Skewness vertelt iets over de ‘scheefheid’ van de verdeling, in dit geval de verdeling van de storingstermen. Bij een positieve, dan wel van een negatieve skweness is er respectievelijk sprake van een rechtsscheve, dan wel een linksscheve verdeling ten opzichte van de normaalverdeling, welke een skewness heeft van nul. De Kurtosis daarentegen gaat na of de staarten van de verdeling van de residu’s dikker of dunner zijn dan deze van de normaalverdeling. Ook hier is voor de normaalverdeling de Kurtosis gelijk aan nul.
Om hieromtrent een zinnig besluit te trekken, dient men zich te baseren op de Fisher Test 1 & 2 en hun bijhorende waarschijnlijkheden. Aan de hand van deze waarschijnlijkheden dient men de nulhypothese al dan niet te verwerpen. De nulhypothese voor de Fisher 1 Test luidt als volgt: het verloop van de residu’s komt qua skewness overeen met het verloop van de normaalverdeling. Het is een algemeen gegeven dat “the smaller the p-value, the more statistical evidence exist to support the alternative hypothesis”. De p-waarde moet dus zo groot mogelijk zijn, bij voorkeur groter dan 0.05 of in het ideale geval zelfs groter dan 10%. Omdat bij de Fisher 1 test de p-waarde (0.582400) groter is dan 1%, is er geen sprake van een ‘overwhelming evidence to infer that the alternative hypothesis is true’. De nulhypothese mag bijgevolg verworpen worden. De interpretatie met betrekking tot de Fisher 2 test is analoog. Aangezien de p-waarde (0.002200) gelegen is tussen de 1% en 5%, dient men hier de nulhypothese te verwerpen.
Skewness and Kurtosis - Ungrouped DataSkewness Measure Value Kurtosis Measure ValueFISHER 3rd Cent. Mom. -3.21293e+10 FISHER 4th Cent. Mom. 6.26426e+15FISHER beta 1 0.020628 FISHER beta 2 4.612869FISHER gamma 1 -0.143624 FISHER gamma 2 1.612869FISHER gamma 1 (S.E.) 0.264135 FISHER gamma 2 (S.E.) 0.528271FISHER Test 1 -0.543752 FISHER Test 2 3.053112FISHER Test 1 Probability 0.582400 FISHER Test 2 Probability 0.002200
Het verwijderen van de meest extreme waarden (outliers) zal een invloed hebben de skewness en kurtosis van de residu’s en bijgevolg ook op de p-waarde. Hiertoe wordt gebruik gemaakt van de Trimmed Skewness en Trimmed Kurtosis, weergegeven in onderstaande tabel. Zoals boven geconcludeerd, dient de p-waarde zo groot mogelijk te zijn. Om een bevredigende p-waarde (> 5%) voor de trimmed skewness te verkrijgen moeten er 6 outliers weggelaten worden, terwijl om een goede trimmed kurtosis te bekomen er 3 extreme waarden weggelaten dienen te worden. Er zullen echter niet al te veel outliers verwijderd mogen worden rekening houdend met het aantal observaties dat in beschouwing wordt genomen.
Trimmed Skewness and Kurtosis (small sample) - Ungrouped Data
De hierboven uiteengezette bevindingen worden gestaafd door de twee grafieken die hier geïllustreerd worden. Indien men een aantal extreme waarden gaat verwijderen, zal zowel de trimmed skweness als de trimmed kurtosis naar nul tenderen. Echter, een teveel aan outliers verwijderen zal een negatief effect hebben op beide statistieken.
Step 3: Compute various measures of central tendency for the residuals. Is the mean significantly different from zero? How robust is this hypothesis? What happens if the residual mean is significantly different from zero?
Om te voldoen aan de voorwaarden dienen de verscheidene t-statistieken niet significant verschillend van nul te zijn. De t-statistiek van het Arithmetic Mean is niet significant verschillend van nul. Wat de Winsorized Mean betreft, kunnen we ook stellen dat de t-statistiek niet significant verschillend is van nul. Echter, de waarde neemt steeds toe, waardoor niet al te veel outliers (indien nodig) buiten beschouwing mogen worden gelaten. Bij de Trimmed Mean stellen we hetzelfde vast, namelijk een toename in waarde van de t-statistiek, waardoor deze significant verschillend van nul wordt wanneer er teveel extreme waarden worden weggelaten. Over het Geometric Mean, Harmonic Mean, Quadratic Mean, Median, Midrange en Midmean kan ik echter niks zinnig vertellen, daar ik niet beschik over de bijhorende t-statistieken.
Central Tendency - Ungrouped DataMeasure Value S.E. Value/S.E.
Arithmetic Mean 329.634309 658.438505 0.500630Standard Error 6106.107497
Geometric Mean NANHarmonic Mean 8531.383818Quadratic Mean 6079.446215Winzorized Mean (0/86) 329.634309 658.438505 0.500630Winzorized Mean (1/86) 355.268437 633.489450 0.560812Winzorized Mean (2/86) 242.860252 592.277771 0.410045Winzorized Mean (3/86) 332.910396 553.221332 0.601767
Trimmed Mean (17/86) 464.377036 344.462320 1.348121Trimmed Mean (18/86) 474.841464 335.128362 1.416894Trimmed Mean (19/86) 486.078462 325.933660 1.491342Trimmed Mean (20/86) 499.498720 316.684450 1.577276Trimmed Mean (21/86) 517.341646 307.517636 1.682315Trimmed Mean (22/86) 534.045947 297.334991 1.796109Trimmed Mean (23/86) 556.907182 284.987521 1.954146Trimmed Mean (24/86) 588.610211 272.015720 2.163883Trimmed Mean (25/86) 619.085050 258.366196 2.396153Trimmed Mean (26/86) 640.276234 247.209958 2.590010Trimmed Mean (27/86) 670.231416 233.146258 2.874725Trimmed Mean (28/86) 687.455944 222.275627 3.092808Trimmed Mean (29/86) 711.610081 208.051030 3.420363Median 807.761539Midrange -181.089087Midmean 529.372847Observations 86
De bovenstaande bevindingen worden gestaafd door de twee onderstaande grafieken. Naarmate er meer outliers weggelaten worden, krijgen we een verslechtering van de wisorized en trimmed mean. Normaal gezien moet de X-as gelegen zijn tussen de twee gele lijnen. Dit is hier het geval.
Step 4: How could we describe (compute) the 50% confidence interval (of a 1-step-ahead forecast) based on variability, quartiles, and percentiles? What computation would you use to derive the 83% confidence interval?Wat betreft de variability kan men kijken naar het verschil tussen de variabiliteitsmaatstaven ten aanzien van het gemiddelde en dezelfde maatstaven ten aanzien van de mediaan. Indien beide sterk van elkaar verschillen, zal je niet te maken hebben met een normaalverdeling. Omdat de Mean Absolute Deviation (MAD), Median Absolute Deviation en Mean Squared Deviation van de mediaan en het gemiddelde nagenoeg aan elkaar gelijk zijn, kan men dus stellen dat er sprake is van een normaalverdeling of dat de verdeling van de residu’s op zijn minst de normaalverdeling benadert.
Variability - Ungrouped DataVariability Measure ValueAbsolute Range 40316.778073Relative Range (unbiased) 6.602697
Mean Squared Deviation from Mean 3.68510e+7Mean Squared Deviation from Median 3.70796e+7Interquartile Difference (Weighted Average at Xnp) 7273.740578Interquartile Difference (Weighted Average at X(n+1)p) 7334.943068Interquartile Difference (Empirical Distribution Function) 7269.714848Interquartile Difference (Empirical Distribution Function - Averaging) 7269.714848Interquartile Difference (Empirical Distribution Function - Interpolation) 7223.578909Interquartile Difference (Closest Observation) 7269.714848Interquartile Difference (True Basic - Statistics Graphics Toolkit) 7465.399506Interquartile Difference (MS Excel (old versions)) 7269.714848Semi Interquartile Range (Weighted Average at Xnp) 3636.870289Semi Interquartile Range (Weighted Average at X(n+1)p) 3667.471534Semi Interquartile Range (Empirical Distribution Function) 3634.857424Semi Interquartile Range (Empirical Distribution Function - Averaging) 3634.857424Semi Interquartile Range (Empirical Distribution Function - Interpolation) 3611.789455Semi Interquartile Range (Closest Observation) 3634.857424Semi Interquartile Range (True Basic - Statistics Graphics Toolkit) 3732.699753Semi Interquartile Range (MS Excel (old versions)) 3634.857424Coefficent of Quartile Variation (Weighted Average at Xnp) 49.456009Coefficent of Quartile Variation (Weighted Average at X(n+1)p) 24.183457Coefficent of Quartile Variation (Empirical Distribution Function) 21.824247Coefficent of Quartile Variation (Empirical Distribution Function - Averaging) 21.824247Coefficent of Quartile Variation (Empirical Distribution Function - Interpolation) 25.061195Coefficent of Quartile Variation (Closest Observation) 21.824247Coefficent of Quartile Variation (True Basic - Statistics Graphics Toolkit) 30.632662Coefficent of Quartile Variation (MS Excel (old versions)) 21.824247Number of all Pairs of Observations 3655.000000Squared Differences between all Pairs of Observations 7.45691e+7Mean Absolute Differences between all Pairs of Observations 6660.370461Gini's Mean Difference 6660.370461Leik's Measure of Dispersion -9.102666Index of Diversity -2.955167Index of Qualitative Variation -2.989933Coefficient of Dispersion 5.554938Observations 86
Quartiles - Ungrouped DataMethod Quartile 1 Quartile 2 Quartile 3Weighted Average at Xnp -3563.332809 806.647267 3710.407769Weighted Average at X(n+1)p -3515.819452 807.761539 3819.123616Empirical Distribution Function -3468.306094 806.647267 3801.408754Empirical Distribution Function - Averaging -3468.306094 807.761539 3801.408754Empirical Distribution Function - Interpolation -3467.670648 807.761539 3755.908261
Wil het verloop van de residu’s niet afwijken van dit van de normaalverdeling, moet de absolute waarde van het eerste en derde kwartiel min of meer aan elkaar gelijk zijn. Daarenboven moet het tweede kwartiel ongeveer gelijk zijn aan nul. Uit de bovenstaande tabel kan men aflezen dat niet aan deze voorwaarden werd voldaan. Op het vlak van de quartielen ben ik dus niet geneigd om te spreken van een normaalverdeling.
De onder- en bovengrens van het 50% betrouwbaarheidsinterval zijn respectievelijk gelijk aan kwartiel één (Q1) en kwartiel drie (Q3). Immers, Q1 bevat 25% en Q3 75% van de waarnemingsgetallen, met als gevolg dat het interval [Q1; Q3] of in dit geval het interval [-3563.332809; 3710.407769] vijftig procent van de waarnemingsgetallen bevat. De breedte van het 50% betrouwbaarheidsinterval is bijgevolg gelijk aan 7273.74. Dit getal kan ook afgelezen worden uit Variability-tabel (dit werd groen gemarkeerd). Het 83% betrouwbaarheidsinterval kan men aan de hand van de kwartielen echter niet berekenen.
Wat de bespreking van de percentielen betreft, baseer ik mij op op de “Empirical Distribution Function - Interpolation”. Het p-de percentiel met waarde x dient men te interpreteren als het percentage (p) van de waarnemingsgetallen dat kleiner of gelijk
is aan deze waarde. Zo is bijvoorbeeld 50% (p = 0.5) van de waarnemingsgetallen kleiner of gelijk aan 807.7615.
Om te spreken van een normaalverdeling moet de overgang tussen min en plus ongeveer bij het vijftigste percentiel plaatsvinden. Deze overgang treffen we echter al aan bij het 40ste en 42ste percentiel en is aan deze voorwaarde dus niet voldaan. Ook het gelijk zijn aan nul treft men hier aan. Daarnaast moeten de absolute waarden van een percentiel (%) en zijn complement (1 - %) ook ongeveer met elkaar overeenstemmen. Zo is de absolute waarde van het 24e percentiel (p = 0.25) gelijk aan 3582.3382, terwijl het 74e percentiel (p = 0.75) een absolute waarde heeft van 3583.8479. Beide absolute waarden liggen dicht bij elkaar.
Ook uit onderstaande QQ Plot kan men besluiten dat de puntenwolk vrij dicht bij de diagonaal aansluit.
Step 5: Are the residuals of the time series white noise?
De meeste analyses tonen toch aan dat de residu’s normaal verdeeld zijn, waardoor mag geconcludeerd worden dat er sprake is van white noise.
Step 6: Create scatterplots between the (white noise) residuals of your selected time series (with various timelags). Is there ANY relationship between the series? Do your findings correspond to your initial hypotheses? Did you now solve the spurious (nonsense) correlation problem?*
Warning: the residual series will probably not have equal length - align them at the last estimated value!
*This analysis should not be viewed as completely adequate (it is not exactly the same as "prewhitening"). In the context of this workshop we are not going to discuss the prewhitening mechanism.
Ik ga enkel het scatterplot tussen de white noise residuals weergeven, die op mijn hypothese betrekking heeft. Voor de residu’s van mijn drie andere tijdreeken werd niet voor een uitgebreide bespreking gekozen, omdat de analyse steeds op hetzelfde neerkomt. Mijn eerder geformuleerde hypothese was de volgende:
- Zullen de werkloosheidsgraden van mannen en vrouwen in de toekomst op een gelijk niveau blijven?
Uit onderstaande grafiek kan worden afgeleid dat de werkloosheidsgraden van mannen en vrouwen wel degelijk gelijk zullen tenderen, aangezien de puntenwolk op zich bij elkaar concentreren.