1 PERBAIKAN ASUMSI KLASIK 6.1. Multikolinearitas Jika model kita mengandung multikolinieritas yang serius yakni korelasi yang tinggi antar variabel independen, Ada dua pilihan yaitu kita membiarkan model tetap mengandung multikolinieritas dan kita akan memperbaiki model supaya terbebas dari masalah multikolinieritas. Tanpa Ada Perbaikan Multikolinieritas sebagaimana kita jelaskan sebelumnya tetap menghasilkan estimator yang BLUE karena masalah estimator yang BLUE tidak memerlukan asumsi tidak adanya korelasi antar variabel independen. Multikolinieritas hanya menyebabkan kita kesulitan memperoleh estimator dengan standard error yang kecil. Masalah multikolinieritas biasanya juga timbul karena kita hanya mempunyai jumlah observasi yang sedikit. Dalam kasus terakhir ini berarti kita tidak punya pilihan selain tetap menggunakan model untuk analisis regresi walaupun mengandung masalah multikolinieritas. Dengan Perbaikan a. Menghilangkan Variabel Independen Ketika kita menghadapi persoalan serius tentang multikolinieritas, salah satu metode sederhana yang bisa dilakukakan adalah dengan menghilangkan salah satu variabel independen yang mempunyai hubungan linier kuat. Misalnya dalam kasus hubungan antara tabungan dengan pendapatan dan kekayaan, kita bisa menghilangkan variabel independen kekayaan. Akan tetapi menghilangkan variabel independen di dalam suatu model akan menimbulkan bias spesifikasi model regresi. Masalah bias spesifikasi ini timbul karena kita melakukan spesifikasi model yang salah di dalam analisis. Ekonomi teori menyatakan bahwa pendapatan dan kekayaan merupakan faktor yang mempengaruhi tabungan sehingga kekayaan harus tetap dimasukkan di dalam model. BAHAN AJAR EKONOMETRI AGUS TRI BASUKI UNIVERSITAS MUHAMMADIYAH YOGAYAKARTA
31
Embed
PERBAIKAN ASUMSI KLASIK - ekonometrikblog.files.wordpress.com · multikolinearitas, maka tindakan awal dengan melihat estimasi nilai R2 yang tinggi (lebih dari 0.8), nilai F tinggi,
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
1
PERBAIKAN ASUMSI KLASIK 6.1. Multikolinearitas
Jika model kita mengandung multikolinieritas yang serius yakni korelasi yang tinggi antar variabel independen, Ada dua pilihan yaitu kita membiarkan model tetap mengandung multikolinieritas dan kita akan memperbaiki model supaya terbebas dari masalah multikolinieritas.
Tanpa Ada Perbaikan
Multikolinieritas sebagaimana kita jelaskan sebelumnya tetap menghasilkan estimator yang BLUE karena masalah estimator yang BLUE tidak memerlukan asumsi tidak adanya korelasi antar variabel independen. Multikolinieritas hanya menyebabkan kita kesulitan memperoleh estimator dengan standard error yang kecil. Masalah multikolinieritas biasanya juga timbul karena kita hanya mempunyai jumlah observasi yang sedikit. Dalam kasus terakhir ini berarti kita tidak punya pilihan selain tetap menggunakan model untuk analisis regresi walaupun mengandung masalah multikolinieritas. Dengan Perbaikan a. Menghilangkan Variabel Independen
Ketika kita menghadapi persoalan serius tentang multikolinieritas, salah satu metode sederhana yang bisa dilakukakan adalah dengan menghilangkan salah satu variabel independen yang mempunyai hubungan linier kuat. Misalnya dalam kasus hubungan antara tabungan dengan pendapatan dan kekayaan, kita bisa menghilangkan variabel independen kekayaan.
Akan tetapi menghilangkan variabel independen di dalam suatu model akan menimbulkan bias spesifikasi model regresi. Masalah bias spesifikasi ini timbul karena kita melakukan spesifikasi model yang salah di dalam analisis. Ekonomi teori menyatakan bahwa pendapatan dan kekayaan merupakan faktor yang mempengaruhi tabungan sehingga kekayaan harus tetap dimasukkan di dalam model.
BAHAN AJAR EKONOMETRI AGUS TRI BASUKI
UNIVERSITAS MUHAMMADIYAH YOGAYAKARTA
2
b. Transformasi Variabel
Misalnya kita menganalisis perilaku tabungan masyarakat dengan pendapatan dan kekayaan sebagai variabel independen. Data yang kita punyai adalah data time series. Dengan data time series ini maka diduga akan terjadi multikolinieritas antara variabel independen pendapatan dan kekayaan karena data keduanya dalam berjalannya waktu memungkinkan terjadinya trend yakni bergerak dalam arah yang sama. Ketika pendapatan naik maka kekayaan juga mempunyai trend yang naik dan sebaliknya jika pendapatan menurun diduga kekayaan juga menurun. Dalam mengatasi masalah multikolinieritas tersebut, kita bisa melakukan transformasi variabel. Misalnya kita mempunyai model regresi time series sbb: tttt eXXY 22110 (6.1)
dimana : Y = tabungan; X1 = pendapatan; X2 = kekayaan Pada persamaan (6.1) tersebut merupakan perilaku tabungan pada periode t, sedangkan perilaku tabungan pada periode sebelumnya t-1 sbb: 112211101 tttt eXXY (6.2)
Jika kita mengurangi persamaan (6.1) dengan persamaan (6.2) akan menghasilkan persamaan sbb: )()()( 112222111111 tttttttt eeXXXXYY (6.3)
ttttttt vXXXXYY )()( 122211111 (6.4)
dimana vt = et – et-1
Persamaan (6.4) tersebut merupakan bentuk transformasi variabel ke dalam bentuk diferensi pertama (first difference). Bentuk diferensi pertama ini akan mengurangi masalah multikolinieritas karena
3
walalupun pada tingkat level X1 dan X2 terdapat multikolinieritas namun tidak berarti pada tingkat diferensi pertama masih terdapat korelasi yang tinggi antara keduanya.
Transformasi variabel dalam persamaan (6.4) akan tetapi menimbulkan masalah berkaitan dengan masalah variabel gangguan. Metode OLS mengasumsikan bahwa variabel gangguan tidak saling berkorelasi. Namun transformasi variabel variabel gangguan vt = et – et-1 diduga mengandung masalah autokorelasi. Walaupun variabel gangguan et awalnya adalah independen, namun variabel gangguan vt yang kita peroleh dari transformasi variabel dalam banyak kasus akan saling berkorelasi sehingga melanggar asumsi variabel gangguan metode OLS.
c. Penambahan Data
Masalah multikolinieritas pada dasarnya merupakan persoalan sampel. Oleh karena itu, masalah multikolinieritas seringkali bisa diatasi jika kita menambah jumlah data. Kita kembali ke model perilaku tabungan sebelumnya pada contoh 6.5. dan kita tulis kembali modelnya sbb:
Ketika kita menambah jumlah data karena ada masalah
multikolinieritas antara X1 dan X2 maka 2
1ix akan menaik sehingga
menyebabkan varian dari 1 akan mengalami penurunan. Jika varian
mengalami penurunan maka otomatis standard error juga akan mengalami penurunan sehingga kita akan mampu mengestimasi 1 lebih
tepat. Dengan kata lain, jika multikolinieritas menyebabkan variabel independen tidak signifikan mempengaruhi variabel dependen melalui uji t maka dengan penambahan jumlah data maka sekarang variabel independen menjadi signifikan mempengaruhi variabel dependen.
4
Contoh Kasus 6.1: Data perkembangan Ekspor, Konsumsi, impor, angkatan kerja dan populasi di Negara ABC sebagai berikut :
POP 0.005041 0.003399 1.483299 0.1536 R-squared 0.959611 Mean dependent var 1147715.
Adjusted R-squared 0.951533 S.D. dependent var 488609.5 S.E. of regression 107567.9 Akaike info criterion 26.18649 Sum squared resid 2.31E+11 Schwarz criterion 26.43026 Log likelihood -322.3311 Hannan-Quinn criter. 26.25410 F-statistic 118.7968 Durbin-Watson stat 1.357171 Prob(F-statistic) 0.000000
Dari hasil output regresi diatas dapat kita susun persamaan sebagai berikut : EKS = -892281 + 0.12*CONS + 0.023*IMP + 0.007*AK + 0.005*POP (0.0498) (0.0645) (0.0066) (0.0033) T hitung 2.4055*** 0.3546 1.1127 1.4832 R2 = 0.959 F hitung = 118.796 Konsekuensi multikearitas adalah invalidnya signifikansi variable maupun besaran koefisien variable dan konstanta. Multikolinearitas diduga terjadi apabila estimasi menghasilkan nilai R kuadrat yang tinggi (lebih dari 0.8), nilai F tinggi, dan nilai t-statistik semua atau hampir semua variabel penjelas tidak signifikan. (Gujarati, 2003)
6
Untuk medeteksi awal apakah dalam suatu model mengandung multikolinearitas, maka tindakan awal dengan melihat estimasi nilai R2 yang tinggi (lebih dari 0.8), nilai F tinggi, dan nilai t-statistik semua atau hampir semua variabel penjelas tidak signifikan. Dari hasil diatas dapat kita lihat R2 tinggi, F tinggi namun sebagian besar tidak signifikan. Artinya ada kemungkinan model diatas mengandung multikolinearitas yang serius.. Uji selanjutnya, bandingkan R kuadrat regresi diatas dengan R kuadrat regresi antar variable bebasnya. Regres LS AK IMP CONS POP C
Dependent Variable: AK Method: Least Squares Date: 01/09/17 Time: 04:49 Sample: 1990 2014 Included observations: 25
IMP 0.010873 0.071359 0.152363 0.8804 AK 0.017615 0.005620 3.134436 0.0050
POP 0.007095 0.003646 1.946095 0.0651 R-squared 0.947925 Mean dependent var 1147715.
Adjusted R-squared 0.940486 S.D. dependent var 488609.5 S.E. of regression 119198.4 Akaike info criterion 26.36061 Sum squared resid 2.98E+11 Schwarz criterion 26.55563 Log likelihood -325.5077 Hannan-Quinn criter. 26.41470 F-statistic 127.4227 Durbin-Watson stat 1.280160 Prob(F-statistic) 0.000000
Hasil regresi diatas : R kuadrat yang tinggi (lebih dari 0.8), nilai F tinggi, dan nilai t-statistik hampir semua variabel penjelas signifikan.
6.2. Heteroskedastisitas
Diketahui bahwa heteroskedastisitas tidak merusak sifat kebiasan dan konsistensi dari penaksir OLS, tetapi penaksir tadi tidak lagi efisien yang membuat prosedur pengujian hipotesis yang biasa nilainya diragukan. Oleh karena itu diperlukan suatu tindakan perbaikan pada model regresi untuk menghilangkan masalah heteroskedastisitas pada model regresi tersebut. Tindakan perbaikan ini tergantung dari pengetahuan kita tentang varian dari variabel gangguan. Ada dua pendekatan untuk melakukan tindakan perbaikan, yaitu jika σ2i diketahui dan jika σ2i tidak diketahui.
8
a. Varian Variabel gangguan Diketahui (i2 )
Jika kita mengetahui besarnya varian maka penyembuhan masalah heteroskedastisitas bisa dilakukan melalui metode WLS yang merupakan bentuk khusus dari metode Generalized Least Squares (GLS). Dari metode WLS ini akhirnya kita bisa mendapatkan estimator yang BLUE kembali. Untuk mengetahui bagaimana metode WLS ini bekerja, misalkan kita mempunyai model regresi sederhana sbb:
iii eXY 10 (6.7)
Jika varian variabel gangguan 2
i diketahui maka persamaan (6.7) dibagi
i akan mendapatkan persamaan sbb:
i
i
i
i
ii
i eY
0 (6.8)
Atau dapat ditulis sbb:
ii
i
i eXY 10
1
(6.9)
Persamaan (6.9) merupakan transformasi dari persamaan (6.7). Dari metode transformasi ini kita akan mendapatkan varian variabel gangguan yang konstan.
2)()( ii eeVar (6.10)
2
i
ie
)(1 2
2 i
i
e
karena varian variabel gangguan 2
i diketahui dan 22 )( iie maka
)(1 2
2 i
i
1
Varian dari transformasi variabel gangguan
ie ini sekarang konstan.
Ketika kita mengaplikasikan metode OLS dalam persamaan transformasi (6.9) maka kita akan mempunyai estimator yang BLUE. Namun perlu diingat bahwa estimator pada persamaan awal yakni persamaan (6.7) tetap tidak BLUE.
9
b. Ketika Varian Variabel gangguan Tidak Diketahui (I2 )
Dalam kenyataannya sulit kita mengetahui besarnya varian variabel gangguan. Oleh karena itu dikembangkanlah metode penyembuhan yang memberi informasi cukup untuk mendeteksi varian yang sebenarnya. Ada beberapa metode yang dapat digunakan untuk menyembuhkan masalah heteroskedastisitas.
Metode White
Jika kita tidak mengetahui besaranya varian variabel gangguan maka kita tidak mungkin bisa menggunakan metode WLS. OLS estimator sebenarnya menyediakan estimasi parameter yang konsisten jika terjadi heteroskedastisitas tetapi standard errors OLS yang biasa tidak tepat untuk membuat sebuah kesimpulan. White kemudian menggembangkan perhitungan standard errors heteroskedastisitas yang dikoreksi (heteroscedasticity-corrected standard errors). Untuk menjelaskan metode White ini kita ambil contoh regresi sederhana sbb:
iii eXY 10 (6.11)
Dimana 2)var( iie
Jika model mempunyai varian variabel gangguan yang tidak sama maka
varian estimator tidak lagi efisien. Varian estimator 1 menjadi:
22
22
1)(
)ˆvar(i
ii
x
x
(6.12)
Karena 2
i tidak bisa dicari secara langsung maka White mengambil
residual kuadrat 2ˆie dari persamaan (6.12) sebagai proksi dari 2
i .
Kemudian varian estimator 1 dapat ditulis sbb:
22
22
1)(
)ˆvar(i
ii
x
ex
(6.13)
Sebagaimana ditunjukkan oleh White, varian )ˆ( 1 dalam persamaan (6.13)
adalah estimator yang konsisten dari varian dalam persamaan (6.12). Ketika sampel bertambah besar maka varian persamaan (6.13) akan menjadi varian persamaan (6.12).
10
Prosedur metode White dilakukan dengan mengestimasi persamaan (6.11) dengan metode OLS, dapatkan residualnya dan menghitung varian berdasarkan persamaan (6.10). Bagi model regresi lebih dari satu variabel independen maka kita harus mencari varian setiap variabel independen. Untuk mengatasi masalah ini, beberapa program komputer seperti Eviews menyediakan metode White ini.
Metode White tentang heteroscedasticity-corrected standard errors didasarkan pada asumsi bahwa variabel gangguan et tidak saling berhubungan atau tidak ada serial korelasinya. Untuk itu maka Newey, Whitney dan Kennneth West menggembangkan metode dengan memasukkan masalah unsur autokoralsi (6.13)
Mengetahui Pola Heteroskedastisitas
Kelemahan dari metode White adalah estimator yang didapatkan mungkin tidak efisien. Metode lain yang bisa dilakukan adalah dengan mengetahui pola heteroskedastisitas di dalam model. Pola ini bisa diketahui melalui hubungan antara varian variabel gangguan dengan variabel independen. Misalnya kita mempunyai model sbb:
iii eXY 10 (6.14)
Kita asumsikan bahwa pola varian variabel gangguan dari persamaan (6.14) adalah proporsional dengan Xi sehingga:
)()(var 2
iii eEXe (6.15)
iX2
untuk menghilangkan masalah heteroskedastisitas jika variabel gangguan proporsional dengan variabel independen Xi, kita dapat melakukan
transformasi persamaan (6.15) dengan membagi dengan iX sehingga
akan menghasilkan persamaan sbb:
i
i
i
i
ii X
e
X
X
XX
Y 1
0
ii
i
vXX
10
1 (6.16)
dimana i
i
iX
ev
11
Sekarang kita bisa membuktikan bahwa varian variabel gangguan dalam persamaan (6.16) tidak lagi heteroskedastisitas tetapi homoskedastisitas:
2
2 )(
i
ii
X
eEvE karena persamaan (6.16)
)(1 2
i
i
eX
(6.17)
i
i
XX
21
2 Karena persamaan (6.15)
Persamaan (6.17) tersebut berbeda dengan model persamaan regresi awal. Sekarang kita tidak lagi mempunyai intersep sehingga kita bisa melakukan regresi tanpa intersep untuk mengestimasi 0 dan 1. Kita kemudian bisa mendapatkan regresi awal dengan cara mengalikan persamaan (6.16)
dengan iX .
Selain proporsional dengan variabel independen X, kita bisa mengasumsikan bahwa pola varian variabel gangguan adalah proporsional dengan 2
iX sehingga:
222 )( ii XeE (6.18)
Kemudian kita bisa melakukan transformasi persamaan (6.14) dengan membagi Xi sehingga akan menghasilkan persamaan sbb:
i
i
iii
i
X
e
XXX
Y 10
i
i
vX
10
1 (6.19)
Kita dapat membuktikan bahwa varian variabel gangguan persamaan (7.62) sekarang bersifat homoskedastisitas yaitu:
2
2 )(
i
i
iX
eEvE
)(1 2
2 i
i
eX
12
22
2
1i
i
XX
2 karena persamaan (6.18) (6.20) Dalam transformasi persamaan di atas konstanta dan slope persamaan awal menjadi variabel independen dan variabel intersep baru.
Contoh Kasus 6.2: Data perkembangan Ekspor, Konsumsi, impor, angkatan kerja dan populasi di Negara DEF sebagai berikut :
Karena nilai Prob. Chi-Square(14) 0,0461 lebih kecil dari 0,05, maka dapat disimpulkan model diatas mengandung heteroskedastisitas. Dalam analisis regresi diperlukan suatu metode untuk menduga parameter agar memenuhi sifat BLUE (Best Linear Unbiased Estimator), salah satu metode yang paling sering digunakan adalah Ordinary Least Square (OLS)atau sering disebut dengan Metode Kuadrat Terkecil (MKT). Salah satu asumsi klasik yang harus dipenuhi dalam estimasi OLS agar hasil estimasinya dapat diandalkan, yaitu ragam sisaan homogeny E(ui2) = σ2 (homoskedastisitas). Pelanggaran terhadap asumsi homoskedastisitas disebut heteroskedastisitas, yang artinya galat bersifat tidak konstan. Konsekuensi dari terjadi heteroskedastisitas dapat mengakibatkan penduga OLS yang diperoleh tetap memenuhi persyaratan tak bias, tetapi varian yang diperoleh menjadi tidak efisien, artinya varian cenderung membesar sehingga tidak lagi merupakan varian yang kecil. Dengan demikian model perlu diperbaiki dulu agar pengaruh dari heteroskedastisitas hilang (Gujarati, 2003)
. Perbaikan heteroskedastisitas dapat dilakukan melalui :
a. Melalui Logaritama
Lakukan regresi LS LOG(IMP) C LOG(CONS) lOG(EKS) LOG(AK) LOG(POP)
15
Dependent Variable: LOG(IMP) Method: Least Squares Date: 01/09/17 Time: 05:51 Sample: 1990 2014 Included observations: 25
Karena nilai Prob. Chi-Square(9) sebesar 0,065, lebih besar dari 0,05, maka dapat disimpulkan model diatas mengandung tidak heteroskedastisitas.
16
b. cara mengatasi heteroskedastisitas pada regresi dengan metode Weighted Least Square
. Uji menguji ada tidaknya heteroskedastisitas dapatjuga digunakan Uji Breusch Pagan Godfrey (BPG). Hipotesis: H0: tidak ada heteroskedastisitas H1: ada heteroskedastisitas
Berdasarkan perhitungan dengan metode BPG diperoleh bahwa H0 ditolak yang artinya terdapat masalah Heteroskedastisitas dalam model, sehingga diperlukan adanya perbaikan pada model agar tidak menyesatkan kesimpulan. Persoalan heteroskedastisitas dapat ditangani dengan melakukan pembobotan suatu faktor yang tepat kemudian menggunakan metode OLS terhadap data yang telah diboboti. Pemilihan terhadap suatu faktor untuk pembobotan tergantung bagaimana sisaan berkorelasi dengan X atau Y,
jika sisaan proporsional terhadap Xi maka model akan dibagi engan iX ,
jika sisaan adalah proporsional dengan sehingga model akan dibagi dengan Xi2, selain proporsional dengan X1 dan Xi2 bisa juga diasumsikan bahwa pola varian sisaan adalah proporsional dengan [E(Yi)]2 sehingga dibagi dengan E(Yi) . Namun dalam prakteknya tidak selalu dengan
pembobotan iYEXX
1,
1,
1
11
dapat mengatasi heteroskedastisitas karena
sesungguhnya pembobot yang diberikan bergantung pada pola sebaran sisaan terhadap variabel bebas maupun variabel terikat. Oleh karena itu, dalam penelitian ini faktor pembobot yang akan dianalisis adalah
iYEXX
1,
1,
1
11
, dani
1 (residual kuadrat).
17
Pembobotan yang digunakan untuk mengatasi adalah dengan mengalikan semua variable dengan
Berdasarkan perhitungan dengan metode BPG diperoleh bahwa H0 diterima yang artinya tidak terdapat masalah Heteroskedastisitas dalam model (Prob. Chi-Square(4) = 0.34 lebih besar dari α = 0.05) Dapat disimpulkan bahwa pembobot pada α taraf sebesar 0,05 dapat mengatasi heteroskedastisitas .
19
6.3. Autokorelasi
Setelah kita ketahui konsekuensi masalah autokorelasi dimana estimator dari metode OLS masih linier, tidak bias tetapi tidak mempunyai varian yang minimum.
Penyembuhan masalah autokorelasi sangat tergantung dari sifat hubungan antara residual. Atau dengan kata lain bagaimana bentuk struktur autokorelasi. Model regresi sederhana seperti dalam persamaan (6.21) sbb:
ttt eXY 10 (6.21)
Diasumsikan bahwa residual mengikuti model AR(1) sebagai berikut:
ttt vee 1 11 (6.22)
Penyembuhan masalah autokorelasi dalam model ini tergantung dua hal: (1) jika atau koefisien model AR(1) diketahui; (2) jika tidak diketahui tetapi bisa dicari melalui estimasi. a. Ketika Struktur Autokorelasi Diketahui
Pada kasus ketika koefisien model AR(1) yakni struktur autokorelasi diketahui, maka penyembuhan autokorelasi dapat dilakukan dengan transformasi persamaan dikenal sebagai metode Generalized difference equation. Pada bab 7 kita telah mengembangkan metode GLS untuk mengatasi masalah heteroskedastisitas yakni ketika varian residual tidak konstan. Dengan melakukan transformasi model kita dapat menghilangkan masalah heteroskedastisitas sehingga kita kemudian dapat mengestimasi model dengan menggunakan metode OLS.
Untuk menjelaskan metode Generalized difference equation dalam kasus adanya autokorelasi, misalkan kita mempunyai model regresi sederhana dan residualnya (et) mengikuti pola autoregresif tingkat pertama AR(1) sbb:
ttt eXY 10 (6.23)
ttt vee 1 11 (6.24)
20
Dimana residual vt memenuhi asumsi residual metode OLS yakni E(vt)=0; Var(vt) = 2; dan Cov (vt,vt-1) =0. Kelambanan (lag) satu persamaan (6.23) sbb:
11101 ttt eXY (6.25)
Jika kedua sisi dalam persamaan (6.25) dikalikan dengan maka akan menghasilkan persamaan sbb:
11101 ttt eXY (6.26)
Kemudian persamaan (6.23) dikurangi persamaan (6.25) akan menghasilkan persamaan diferensi tingkat pertama sbb:
1111001 tttttt eeXXYY
ttttt vXXYY 11101 )1(
ttt vXX )()1( 110 (6.27)
dimana 1 ttt eev dan memenuhi asumsi OLS seperti persamaan (6.24)
Persamaan (6.27) tersebut dapat kita tulis menjadi:
tttt vXY 0 (6.28)
Dimana )(;);1();( 111001
tttttt XXXYYY
Residual vt dalam persamaan (6.28) sudah terbebas dari masalah autokorelasi sehingga memenuhi asumsi OLS. Sekarang kita bisa mengaplikasikan metode OLS terhadap transformasi variabel Y* dan X* dan mendapatkan estimator yang menghasilkan karakteristik estimator yang BLUE.
b. Ketika Struktur Autokorelasi Tidak Diketahui
Walaupun metode penyembuhan masalah autokorelasi sangat mudah dilakukan dengan metode generalized difference equation jika strukturnya diketahui, namun metode ini dalam prakteknya sangat sulit dilakukan. Kesulitan ini muncul karena sulitnya kita untuk mengetahui nilai . Oleh karena itu kita harus menemukan cara yang paling tepat untuk mengestimasi . Ada beberapa metode yang telah dikembangkan oleh para ahli ekonometrika untuk mengestimasi nilai .
21
1) Metode Diferensi Tingkat Pertama
Nilai terletak antara -1 1. Jika nilai = 0 berarti tidak ada korelasi residual tingkat pertama (AR 1). Namun jika nilai = 1 maka model mengandung autokorelasi baik positif maupun negatif. Ketika nilai dari = +1, masalah autokorelasi dapat disembuhkan dengan diferensi tingkat pertama metode generalized difference equation. Misalkan kita mempunyai model sederhana seperti persamaan (6.29) sebelumnya, metode diferensi tingkat pertama (first difference) dapat dijelaskan sbb:
ttt eXY 10 (6.29)
Diferensi tingkat pertama persamaan (6.23) tersebut sebagaimana dalam persamaan (6.30) sebelumnya sbb:
111101 )1( tttttt eeXXYY (6.30)
Jika = +1 maka persamaan tersebut dapat ditulis kembali menjadi
)()( 1111 tttttt eeXXYY (6.31)
Atau dapat ditulis menjadi persamaan sbb:
ttt vXY 1 (6.32)
dimana adalah diferensi dan 1 ttt eev
Residual vt dari persamaan (6.32) tersebut sekarang terbebas dari masalah autokorelasi. Metode first difference ini bisa diaplikasikan jika koefisien autokorelasi cukup tinggi atau jika nilai statistik Durbin-Watson (d) sangat rendah. Sebagai rule of thumb jika R2 > d, maka kita bisa menggunakan metode first difference. Dari transformasi first difference ini sekarang kita tidak lagi mempunyai intersep atau konstanta dalam model. Konstanta dalam model dapat dicari dengan memasukkan variabel trend (T) di dalam model aslinya. Misalkan model awalnya dengan trend sbb:
ttt eTXY 210 (6.33)
22
dimana T adalah trend, nilainya mulai satu pada awal periode dan terus menaik sampai akhir periode. Residual et dalam persamaan (6.24) tersebut mengikuti autoregresif tingkat pertama. Transformasi persamaan (6.34) dengan metode first difference akan menghasilkan persamaan sbb: ttt vXY 211 (6.34)
dimana residual 1 ttt eev
Pada proses diferensi tingkat pertama persamaan (6.32) menghasilkan persamaan (6.33) yang mempunyai konstanta sedangkan diferensi pertama pada persamaan (6.34) tanpa menghasilkan konstanta.
2) Estimasi Didasarkan Pada Berenblutt- Webb
Metode transformasi dengan first difference bisa digunakan hanya jika nilai tinggi atau jika nilai d rendah. Dengan kata lain metode ini hanya akan valid jika nilai = +1 yaitu jika terjadi autokorelasi positif yang sempurna. Pertanyaannya bagaimana kita bisa mengetahui asumsi bahwa = +1. Berenblutt-Webb telah mengembangkan uji statistik untuk menguji hipotesis bahwa = +1. Uji statistik dari Berenblutt-Webb ini dikenal dengan uji statistik g (Gujarati, 2005). Rumus statistiknya dapat ditulis sbb:
nt
t
n
t
e
g
1
2
2
(6.34)
Dimana et adalah residual dari regresi model asli dan vt merupakan residual dari regresi model first difference. Dalam menguji signifikansi statistik g diasumsikan model asli mempunyai konstanta. Kemudian kita dapat menggunakan tabel Durbin-Watson dengan hipotesis nol = 1, tidak lagi dengan hipotesis nol = 0. Keputusan bahwa = 1 ditentukan dengan membandingkan nilai hitung g dengan nilai kritis statistik d. Jika g dibawah nilai batas minimal dL maka tidak menerima hipotesis nol sehingga kita bisa mengatakan bahwa = 1 atau ada korelasi positif antara residual.
23
3) Estimasi Didasarkan Pada Statistik d Durbin Watson
Kita hanya bisa mengaplikasikan metode transformasi first difference jika nilai tinggi yakni mendekati satu. Metode ini tidak bisa digunakan ketika rendah. Untuk kasus nilai rendah maka kita bisa menggunakan statistik d dari Durbin Watson. Kita bisa mengestimasi dengan cara sbb:
)ˆ1(2 d (6.35)
atau dapat dinyatakan dalam persamaan sbb:
21ˆ
d (6.36)
Sebagaimana pembahasan sebelumnya, kita bisa mencari nilai dari estimasi statistik pada persamaan (6.36) di atas. Asumsi first difference menyatakan bahwa 1ˆ hanya terjadi jika d=0 di dalam persamaan
(6.36). Begitu pula jika d = 2 maka 0ˆ dan bila d =4 maka 1ˆ .
Persamaan tersebut hanya suatu pendekatan tetapi kita bisa menggunakan nilai statistik d untuk mendapatkan nilai . Di dalam sampel besar kita dapat mengestimasi dari persamaan (6.36) dan menggunakan yang kita dapatkan untuk model generalized difference equation dalam persamaan (6.13) sebelumnya.
4) Estimasi Dengan Metode Dua Langkah Durbin
Untuk menjelaskan metode ini maka kita kembali ke model generalized difference equation persamaan (6.37). Kita tulis kembali persamaan tersebut sbb:
1111001 tttttt eeXXYY (6.37)
Atau dapat kita tulis kembali menjadi ttttt vYXXY 111110 )1( (6.38)
Dimana )( 1 ttt eev
Setelah mendapatkan persamaan (6.38), Durbin menyarankan untuk menggunakan prosedur dua langkah untuk mengestimasi yaitu:
24
1. Lakukan regresi dalam persamaan (6.38) dan kemudian perlakukan nilai koefisien Yt-1 sebagai nilai estimasi dari . Walaupun ini bias, tetapi merupakan estimasi yang konsisten
2. setelah mencapai pada langkah pertama, kemudian lakukan transformasi variabel )( 1
ttt YYY dan )( 1
ttt XXX dan
kemudian lakukan regresi metode OLS pada transformasi variabel persamaan (6.11.)
5) Estimasi Dengan Metode Cochrane-Orcutt
Uji ini merupakan uji alternatif untuk memperoleh nilai yang tidak diketahui. Metode Cochrane-Orcutt sebagaimana metode yang lain menggunakan nilai estimasi residual et untuk memperoleh informasi tentang nilai (Pindyck, S and Daniel. L, 1998). Untuk menjelaskan metode ini kita misalkan mempunyai model regresi sederhana sbb:
ttt eXY 10 (6.39)
Diasumsikan bahwa residual (et) mengikuti pola autoregresif (AR1) sbb:
ttt vee 1 (6.40)
dimana residul vt memenuhi asumsi OLS Metode yang kita bicarakan sebelumnya untuk mengetimasi hanya merupakan estimasi tunggal terhadap . Oleh karena itu, Cochrane-Orcutt merekomendasi untuk mengestimasi dengan regresi yang bersifat iterasi sampai mendapatkan nilai yang menjamin tidak terdapat masalah autokorelasi dalam model. Adapun metode iterasi dari Cochrane-Orcutt dapat dijelaskan sbb:
1. Estimasi persamaan (6.39) dan kita dapatkan nilai residualnya te
2. Dengan residual yang kita dapatkan maka lakukan regresi persamaan berikut ini:
ttt vee 1ˆˆˆ (6.41)
3. Dengan yang kita dapatkan pada langkah kedua dari persamaan
(6.41) kemudian kita regresi persamaan berikut ini:
25
1111001ˆˆˆˆ
tttttt eeXXYY (6.42)
ttttt vXXYY )ˆ()ˆ1(ˆ1101
atau dapat ditulis dalam bentuk yang lebih sederhana menjadi persamaan
tt eXY 10 (6.43)
dimana: )ˆ1(00
4. Karena kita tidak mengetahui apakah nilai yang diperoleh dari
persamaan (6.41) adalah nilai estimasi yang terbaik, maka masukan nilai )ˆ1(00 dan
1 yang diperoleh dalam persamaan (6.43) ke
dalam persamaan awal (6.39) dan kemudian dapatkan residualnya
te
sbb:
ttt XYe 10ˆˆˆ (6.44)
5. Kemudian estimasi regresi sbb:
ttt wee ˆˆˆ (6.45)
yang kita peroleh dari persamaan (6.45) ini merupakan langkah
kedua mengestimasi nilai
Karena kita tidak juga mengetahui apakah langkah kedua ini mampu mengetimasi nilai yang terbaik maka kita dapat melanjutkan pada langkah ketiga dan seterusnya. Pertanyaannya, sampai berapa langkah kita harus berhenti melakukan proses iteratif untuk mendapatkan nilai . Menurut Cochrane-Orcutt, estimasi nilai akan kita hentikan jika nilainya sudah terlalu kecil. Contoh Kasus :
Data perkembangan Ekspor, Konsumsi, Impor dan Jumlah penduduk di Negara GHI sebagai berikut :
26
Tabel 6.4. Perkembangan Ekspor, Konsumsi, impor, dan populasi
Adjusted R-squared 0.981844 S.D. dependent var 1.221827 S.E. of regression 0.164633 Akaike info criterion -0.624543 Sum squared resid 0.569188 Schwarz criterion -0.429523 Log likelihood 11.80679 Hannan-Quinn criter. -0.570453 F-statistic 433.6286 Durbin-Watson stat 0.910714 Prob(F-statistic) 0.000000
Lakukan Uji Autokorelasi dengan uji LM Pilih : view Residual Diagnostics Serial Correlation LM Test masukan angka 2 OK Hasilnya seperti output dibawah ini
Breusch-Godfrey Serial Correlation LM Test: F-statistic 4.775548 Prob. F(2,19) 0.0209
Obs*R-squared 8.363160 Prob. Chi-Square(2) 0.0153
Dari hasil perhitungan Uji LM diperoleh nilai Prob. Chi-Square(2) = 0,0153 lebih kecil dari α = 0,05 berti H0 ditolak, artinya dalam model diatas model yang digunakan mengandung autokorelasi. Konsekuensi masalah autokorelasi dimana estimator dari metode OLS masih linier, tidak bias tetapi tidak mempunyai varian yang minimum.
28
Perbaikan Autokorelasi Perbaikan Autokorelasi digunakan metode transformasi first difference jika
nilai tinggi yakni mendekati satu. 2
1ˆd
seperti dalam persaman (6.36),
sehingga ρ dapat di cari dengan formula dalam persamaan 6,36. Karena hasil regresi dengan log(imp)=f(log(cons), log(eks), log(pop)) diperoleh dw =0.910714, maka ρ diperoleh ρ = 1-(0,910714/2) = 0.5446.
Tabel 6.5. Pembentukan Variabel Baru Ekspor, Konsumsi, impor,
Lakukan regresi LS Log(IMP)* C Log(CONS)* Log(EKS)* Log(POP)*
Hasilnya seperti di bawah ini : Dependent Variable: LOG(IMP)* Method: Least Squares Date: 01/09/17 Time: 07:37 Sample (adjusted): 1991 2014 Included observations: 24 after adjustments
Adjusted R-squared 0.928537 S.D. dependent var 0.222501 S.E. of regression 0.059480 Akaike info criterion -2.655333 Sum squared resid 0.070758 Schwarz criterion -2.458991 Log likelihood 35.86399 Hannan-Quinn criter. -2.603243 F-statistic 100.6150 Durbin-Watson stat 1.332800 Prob(F-statistic) 0.000000
30
Lakukan Uji Autokorelasi dengan uji LM Pilih : view Residual Diagnostics Serial Correlation LM Test masukan angka 2 OK
Breusch-Godfrey Serial Correlation LM Test: F-statistic 1.596644 Prob. F(2,18) 0.2300
Obs*R-squared 3.616187 Prob. Chi-Square(2) 0.1640
Dari hasil perhitungan Uji LM diperoleh nilai Prob. Chi-Square(2) = 0,1640 lebih besar dari α = 0,05 berti H0 diterima, artinya dalam model diatas model yang digunakan tidak mengandung autokorelasi.
31
DAFTAR PUSTAKA
Agus Widarjono, Ekonometrika Teori dan Aplikasi untuk Ekonomi dan Bisnis, Edisi Kedua, Cetakan Kesatu, Penerbit Ekonisia Fakultas Ekonomi UII Yogyakarta 2007.
Budiyuwono, Nugroho, Pengantar Statistik Ekonomi & Perusahaan, Jilid 2, Edisi Pertama, UPP AMP YKPN, Yogyakarta, 1996.