UJI REGRESI pada SPSS Uji regresi berganda banyak sekali dipakai dalam penelitian. Pemakaian baik untuk keperluan skripsi ataupun penelitian sehari-hari. Kelebihan uji regresi adalah kemampuannya melakukan prediksi. Bagi kalangan guru sekolah atau dosen, uji regresi bisa dipakai untuk memprediksi perilaku siswa, baik dalam hal nilai atau perilaku-perilaku lainnya. Regresi Berganda Simultan atau Standar adalah kembangan lebih lanjut dari Penelitian Korelasional. Lewat Uji Regresi hendak dilihat bagaimana suatu variabel mempengaruhi variabel lain. Regresi Berganda Simultan atau Standar juga kerap disebut Standard Multiple Regression atau Simultaneous Multiple Regression). Dalam uji regresi berganda simultan, seluruh variabel prediktor (bebas) dimasukkan ke dalam perhitungan regresi secara serentak. Jadi, peneliti bisa menciptakan persamaan regresi guna memprediksi variabel terikat dengan memasukkan, secara serentak, serangkaian variabel bebas. Persamaan regresi kemudian menghasilkan konstanta dan koefisien regresi bagi masing-masing variabel bebas.
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
UJI REGRESI pada SPSS
Uji regresi berganda banyak sekali dipakai dalam penelitian.
Pemakaian baik untuk keperluan skripsi ataupun penelitian
sehari-hari. Kelebihan uji regresi adalah kemampuannya
melakukan prediksi. Bagi kalangan guru sekolah atau dosen, uji
regresi bisa dipakai untuk memprediksi perilaku siswa, baik
dalam hal nilai atau perilaku-perilaku lainnya.
Regresi Berganda Simultan atau Standar adalah kembangan
lebih lanjut dari Penelitian Korelasional. Lewat Uji Regresi
hendak dilihat bagaimana suatu variabel mempengaruhi variabel
lain. Regresi Berganda Simultan atau Standar juga kerap disebut
Standard Multiple Regression atau Simultaneous Multiple
Regression).
Dalam uji regresi berganda simultan, seluruh variabel prediktor
(bebas) dimasukkan ke dalam perhitungan regresi secara
serentak. Jadi, peneliti bisa menciptakan persamaan regresi
guna memprediksi variabel terikat dengan memasukkan, secara
serentak, serangkaian variabel bebas. Persamaan regresi
kemudian menghasilkan konstanta dan koefisien regresi bagi
masing-masing variabel bebas.
Selain Regresi Berganda Simultan atau Standar, ada pula
Regresi Berganda Stepwise dan Regresi Berganda Hirarki.
Tulisan ini hanya hendak mendalami Regresi Berganda Simultan
atau Standar saja.
Regresi Berganda dengan SPSS
Regresi Berganda sangat mudah dilakukan dengan SPSS. Julie
1. Klik Analyze --> Regression --> Linear. 2. Klik variabel terikat --> Pindahkan ke kotak Dependent. 3. Klik variabel bebas --> Pindahkan ke kotak Independent(s). 4. Pada Method, pastikan dipilih Enter (untuk Regresi Berganda Standar). 5. Klik tombol Statistics, lalu lakukan : 6. Ceklis Estimates, Model fit, Descriptives, dan Collinearity diagnostics. 7. Pada bagian Residual, ceklis Casewise diagnostics dan
Outliers outside 3 standard deviations. 8. Klik Continue. 9. Klik tombol Options. Pada bagian Missing Values ceklis
Exclude cases pairwise. 10. Klik tombol Plots, lakukan : 11. Klik *ZRESID dan tombol panah untuk memindahkannya ke kotak y-axis. 12. Klik *ZPRED dan tombol panah untuk memindahkannya ke kotak x-axis. 13. Klik Next 14. Klik *SRESID dan tombol panah untuk memindahkannya ke
kotak y-axis (untuk melihat homoskedastisitas) 15. Klik *ZPRED dan tombol panah untuk memindahkannya ke
kotak x-axis (untuk melihat homoskedastisitas) 16. Pada bagian Standardized Residual Plots, ceklis pilihan
Normal probability plot. 17. Klik Continue. 18. Klik tombol Save. 19. Pada bagian Predicted Values, ceklis Unstandardized, Standardized, Adjusted 20. Pada bagian Residuals, ceklis Standardized, Deleted, dan Studentized deleted.
21. Pada bagian Distances, ceklis Mahalanobis, Cook’s, dan Leverage values. 22. Pada bagian Influence Statistics, ceklis Standardized
dfBeta(s) dan Standardized DiFit 23. Klik Continue. 24. Klik OK.
Asumsi Uji Regresi Berganda (Multiple Regression)
Menurut Julie Pallant dan Andy Field, Uji Regresi Berganda
punya sejumlah asumsi yang tidak boleh dilanggar.
Asumsi-asumsi Uji Regresi Berganda adalah:
1. Ukuran Sampel
Masalah berkenaan ukuran sampel di sini adalah
generabilitas. Dengan sampel kecil anda tidak bisa
melakukan generalisasi (tidak bisa diulang) dengan sampel
lainnya. Berbeda penulis berbeda berapa sampel yang
seharusnya dalam uji Regresi Berganda. Stevens (1996,
p.72) merekomendasikan bahwa “untuk penelitian ilmu
sosial, sekitar 15 sampel per prediktor (variabel bebas)
dibutuhkan untuk mengisi persamaan uji regresi.”
Tabachnick and Fidell (1996, p.132) memberi rumus guna
menghitung sampel yang dibutuhkan uji Regresi, berkaitan
dengan jumlah variabel bebas yang digunakan:
n > 50 + 8m
Dimana :
n = Jumlah Sampel
m = Jumlah Variabel Bebas
Jika peneliti menggunakan 5 variabel bebas, maka jumlah
sampel yang dibutuhkan adalah 90 orang, dalam mana 50
ditambah ( 5 x 8) = 50 + 40 = 90.
2. Outlier
Regresi Berganda sangat sensitif terhadap Outlier (skor
terlalu tinggi atau terlalu rendah). Pengecekan terhadap
skor-skor ekstrim seharusnya dilakukan sebelum
melakukan Regresi Berganda. Pengecekan ini dilakukan
baik terhadap variabel bebas maupun terikat. Outlier bisa
dihapus dari data atau diberikan skor untuk variabel
tersebut yang tinggi, tetapi tidak terlampau beda dengan
kelompok skor lainnya. Prosedur tambahan guna
mendeteksi outlier juga terdapat pada program SPSS file
mah_1. Outlier pada variabel terikat dapat diidentifikasi
dari Standardised Residual plot yang dapat disetting.
Tabachnick and Fidell (1996, p. 139) menentukan outlier
adalah nilai-nilai Standardised Residual di atas 3,3 (atau <
- 3,3).
Outlier juga bisa dicek menggunakan jarak Mahalanobis
yang tidak diproduksi oleh program Regresi Berganda SPSS
ini. Ia tidak terdapat dalam output SPSS. Untuk
mengidentifikasi sampel mana yang merupakan Outlier,
anda perlu menentukan nilai kritis Chi Square, dengan
menggunakan jumlah variabel bebas yang digunakan
dalam penelitian sebagai “degree of freedom-nya” atau
derajat kebebasan. Pallant menggunakan Alpha 0,001 agar
lebih meyakinkan, yang rinciannya sebagai berikut:
--image--
Untuk menggunakan tabel kritis Chi Square, lakukan
langkah berikut:
1. Tentukan variabel bebas yang digunakan dalam
analisis;
2. Temukan nilai di atas pada salah satu kolom
berbayang; dan
3. Baca melintasi kolom untuk menemukan nilai kritis
yang dikehendaki.
3. Normalitas Residu
Normalitas adalah residu yang seharusnya terdistribusi
normal seputar skor-skor variabel terikat. Residu adalah
sisa atau perbedaan hasil antara nilai data pengamatan
variabel terikat terhadap nilai variabel terikat hasil prediksi.
Untuk melihat apakah residu normal atau tidak, dapat
dilakukan dengan cara berikut:
1. Melihat grafik Normal P-P Plot, dan
2. Uji Kolmogorov-Smirnov
Pada grafik Normal P-P Plot, residu yang normal adalah
data memencar mengikuti fungsi distribusi normal yaitu
menyebar seiring garis z diagonal. Residu normal dari uji
Kolmogorov-Smirnov adalah diperolehnya nilai p > 0,05.
Linieritas adalah residual yang seharusnya punya hubungan
dalam bentuk “straight-line” dengan skor variabel terikat
yang diprediksi. Homoskedastisitas adalah varians residual
seputar skor-skor variabel terikat yang diprediksi
seharusnya sama bagi skor-skor yang diprediksi secara
keseluruhan.
4. Multikolinieritas
Uji Regresi mengasumsikan variabel-variabel bebas tidak
memiliki hubungan linier satu sama lain. Sebab, jika
terjadi hubungan linier antarvariabel bebas akan membuat
prediksi atas variabel terikat menjadi bias karena terjadi
masalah hubungan di antara para variabel bebasnya.
Dalam Regresi Berganda dengan SPSS, masalah
Multikolinieritas ini ditunjukkan lewat tabel Coefficient,
yaitu pada kolom Tolerance dan kolom VIF (Variance
Inflated Factors). Tolerance adalah indikator seberapa
banyak variabilitas sebuah variabel bebas tidak bisa
dijelaskan oleh variabel bebas lainnya. Tolerance dihitung
dengan rumus 1 – R2 untuk setiap variabel bebas. Jika
nilai Tolerance sangat kecil (< 0,10), maka itu
menandakan korelasi berganda satu variabel bebas sangat
tinggi dengan variabel bebas lainnya dan mengindikasikan
Multikolinieritas. Nilai VIF merupakan invers dari nilai
Tolerance (1 dibagi Tolerance). Jika nilai VIF > 10, maka
itu mengindikasikan terjadinya Multikolinieritas.
Hipotesis untuk Multikolinieritas ini adalah:
5. Autokorelasi
Autokorelasi juga disebut Independent Errors. Regresi