Uji Multikolinearitas
Pengertian Uji Multikolinearitas
Uji multikolinearitas adalah uji yang dilakukan untuk memastikan apakah di dalam sebuah model regresi ada interkorelasi atau kolinearitas antar variabel bebas. Interkorelasi adalah hubungan yang linear atau hubungan yang kuat antara satu variabel bebas atau variabel prediktor dengan variabel prediktor lainnya di dalam sebuah model regresi. Interkorelasi itu dapat dilihat dengan nilai koefisien korelasi antara variabel bebas, nilai VIF dan Tolerance, nilai Eigenvalue dan Condition Index, serta nilai standar error koefisien beta atau koefisien regresi parsial.
Asumsi Multikolinearitas
Kita harus mengingat secara baikbaik, bahwa multikolinearitas adalah syarat atau asumsi terhadap jenis analisis yang harus dipenuhi. Pada analisis statistik apa sajakah multikolinearitas dapat terjadi?
Seperti yang sudah kita pahami sebelumnya bahwa multikolinearitas dapat terjadi pada beberapa model regresi, antara lain regresi linear, baik regresi linear sederhana, regresi linear berganda, regresi data panel ataupun regresi yang lainnya seperti regresi logistik dan cox regression. Oleh karena itu, bagi pembaca kami rekomendasikan untuk mempelajari artikel-artikel kami tentang hal-hal yang disebutkan diatas, terutama artikel yang berjudul Multikolinearitas.
Uji Multikolinearitas dengan SPSS
Cara uji multikolinearitas dengan SPSS sangatlah mudah dan praktis serta dapat dilakukan dengan cepat jika menggunakan aplikasi SPSS, karena jadi satu proses dengan langkah pengujian regresi itu sendiri. Langkah Uji multikolinearitas di dalam SPSS tersebut akan kami jelaskan dalam bahasan ini sebagai tindak lanjut dari artikel sebelumnya yang menjelaskan secara rinci tentang pengertian multikolinearitas hingga dampak yang diakibatkannya pada model regresi yang para peneliti lakukan.
Tutorial uji multikolinearitas dengan SPSS
Berikut adalah tutorial uji multikolinearitas dengan SPSS:
Buat dataset yang di di dalamnya terdapat 3 variabel, dengan perincian: 1 variabel dependent atau variabel response dan beberapa variabel Independen (Artinya lebih dari satu variabel predictor). Dalam tutorial SPSS ini, kita akan membuat contoh uji multikolinearitas dengan menggunakan 2 variabel independen. Lihat contohnya di bawah ini, yaitu dengan menggunakan 50 sampel.
Selanjutnya isi dataset tersebut dengan data-data berskala data interval ataupun rasio.
Lakukan langkah sebagai berikut: pada menu, klik analyze -> regression -> linear -> selanjutnya masukkan variabel prediktor ke kolom Independent (s), variabel response ke kolom Dependent. Metode yang dipilih terserah anda, apakah metode enter atau metode stepwise, itu tergantung pada model regresi yang akan anda lakukan terkait dengan pertanyaan-pertanyaan penelitian di dalam metode penelitian anda.
Klik tombol statistics dan pastikan bahwa anda mencentang Collinearity Diagnostics dan Descriptives, kemudian tekan tombol Continue.
Untuk checklist yang lainnya, terserah anda apakah akan digunakan atau tidak. Tentunya jika anda menginginkan hasil yang maksimal dalam rangka untuk membuat sebuah model regresi yang BLUE (Best Linear Unbiased estimation), maka anda harus mencentang semuanya. Oleh karena itu, anda harus mempelajari juga tentang asumsi klasik regresi linear, antara lain: autokorelasi, heteroskedastisitas, outlier, linearitas regresi dan normalitas residual pada regresi linear.
Jika anda sudah menyelesaikan prosedur lainnya dalam pengujian di dalam regresi linear, maka tekan tombol OK pada jendela utama SPSS. Dan selanjutnya lihatlah outputnya.
Cara Baca Uji multikolinearitas SPSS
Berikut kami jelaskan cara baca uji multikolinearitas dengan SPSS atau yang lebih tepatnya kita beri istilah interprestasi. Silahkan buka output anda!
Tabel Coefficient Regresi
Pada tabel korelasi menunjukkan hasil analisis interkorelasi antara variabel bebas yang ditandai dengan nilai koefisien korelasi pearson. Dalam hal ini di dalam Output SPSS dapat anda lihat pada persilangan antar variabel bebas. Misalnya dalam tutorial ini, hasil korelasi antara variabel bebas X1 dengan X2 adalah sebesar r = 0,368. Karena nilai 0,368 tersebut kurang dari 0,8 maka gejala multikolinearitas tidak terdeteksi. Selanjutnya akan kita pastikan dengan melihat cara deteksi multikolinearitas lainnya, yaitu berdasarkan nilai standar error dan koefisien beta regresi parsial. Lihat di bawah ini:
Dalam tabel coefficient dapat anda perhatikan bahwa nilai standar error kurang dari satu, yaitu X1 = 0,121 dan X2 = 0,118 dimana keduanya kurang dari satu. Serta nilai koefisien beta juga kurang dari satu dimana X1 = 0,624 dan X2 = 0,407. Maka dapat dikatakan bahwa nilai standar error rendah dan multikolinearitas tidak terdeteksi. Selanjutnya pastikan lagi dengan nilai rentang upper dan lowerbound confidence interval, apakah lebar atau sempit. Berikut hasilnya:
Perhatikan pada tabel coefficient di atas, bahwa nilai rentangnya sempit, yaitu pada X1 = 0,865 sampai dengan 1,156. Sedangkan pada X2 juga kebetulan hasilnya sama yaitu X2 = 0,865 sampai dengan 1,156. Karena rentangnya sempit maka multikolinearitas tidak terdeteksi.
Deteksi Multikolinearitas dengan Nilai VIF dan Tolerance Dalam Regresi
Pada tabel yang sama di atas sebagai hasil uji regresi linear, perhatikan nilai VIF dan Tolerance. Kedua ini adalah indikasi kuat yang sering dipakai oleh para peneliti untuk menyimpulkan fenomena terjadinya interkorelasi variabel bebas. Jika nilai VIF kurang dari 10 dan atau nilai Tolerance lebih dari 0,01 maka dapat disimpulkan dengan tegas bahwa tidak terdapat masalah multikolinearitas. Dan sebaliknya maka dapat disimpulkan dengan tegas pula bahwa multikolinearitas telah terjadi dalam model. Selanjutnya yang terakhir di dalam output proses yang sudah kita lakukan, kita perhatikan nilai dari collinearity diagnostics seperti di bawah ini:
Deteksi Multikolinearitas dengan Eigenvalue dan Condition Index
Pada tabel collinearity diagnostics di atas sebagai hasil uji regresi linear, kita perhatikan juga nilai eigenvalue dan condition index. Jika Eigenvalue lebih dari 0,01 dan atau Condition Index kurang dari 30, maka berdasarkan eigenvalue dan condition index, dapat disimpulkan bahwa gejala multikolinearitas terjadi di dalam model regresi. Dalam tutorial SPSS ini, nilai eigenvalue 0,002 < 0,01 dan collinearity diagnostics 40,458 dimana lebih dari 30.
Kesimpulan Uji Multikolinearitas
Kesimpulan dari tutorial multikolinearitas SPSS ini adalah tidak terdapat masalah multikolinearitas berdasarkan beberapa indikator terutama VIF dan Tolerance, walaupun berdasarkan condition index dan eigenvalue terdapat multikolinearitas. Sehingga hasil pengujian dikatakan reliabel atau terpercaya. Maka nilai koefisien regresi parsial dikatakan handal dan robust atau kebal terhadap perubahan-perubahan yang terjadi pada variabel lainnya di dalam model regresi berganda. Untuk memahami secara kompleks, silahkan baca artikel menarik kami lainnya hanya di www.statistikian.com.
By Anwar Hidayat
terima kasih. sangat membantuu
Pak..sy lg pake metode stepwise krn stepwise ad include n exclude, knp ya kok ad variabel sama muncul 2x tp dg nilai yg berbeda. Kl ky gini, jd sy hrs pakai angka yg mana?
Stepwise artinya variabel bebas yang signifikan sjaa yang dimasukkan ke dalam model. Proses itu dilakukan bertahap satu persatu variabel bebas, maka otomatis akan ada beberapa step. Kemudian setiap memasukkan 1 variabel, maka nilai signifikansi variabel bebas lainnya di dalam model yang sudah lebih dulu masuk akan dicek ulang dan jika ada yang kemudian berubah menjadi tidak signifikan maka akan dikeluarkan dari model. Seperti itu seterusnya dilakukan secara otomatis oleh komputer sampai semua variabel bebas dicek layak masuk apa tidak ke dalam model dan variabel yang sudah masuk apakah masih layak tetap di dalam model. Model akhir atau step akhir adalah model yang semuanya sudah layak berada di dalam model dengan kriteria signifikan. Jadi anda gunakan model pada step akhir.
Saya ingin bertanya saja kak, kan dalam penelitian saya terdapat satu variabel independen, satu variabel moderasi, dan satu variabel kontrol. Nah itu saya uji asumsi klasik, lolos uji multikolinearitas. Namun, definissi uji multikolinearitas adalah untuk mengetahui ada atau tidaknya korelasi antar variabel independen. Nah pertanyaannya, di penelitian saya kan cuma ada satu variabel independen, meskipun ada satu variabel moderasi dan kontrol. Mengapa harus tetap di uji multikolinearitas, sedangkan definisi uji multikolinearitas seperti itu. Begitu kak, terimakasih
Variabel bebas dalam konsep multikolinearitas adalah adanya korelasi kuat antar predictor. Jadi semua variabel yang menjadi predictor terhadap variabel terikat dianggap sebagai variabel bebas yang perlu diuji interkorelasinya, sebab jika terdapat interkorelasi kuat maka akan sebabkan bias.