TRENDING NOW

Sebuah Blog Untuk Belajar Jenis Uji Statistik, Penelitian, Statistik Berbasis Komputer, Statistik Dalam Excel, Tutorial SPSS, STATA dan Minitab.

Analisis Multivariat

Pengertian Analisis Multivariat

Analisis Multivariat adalah metode pengolahan variabel dalam jumlah yang banyak, dimana tujuannya adalah untuk mencari pengaruh variabel-variabel tersebut terhadap suatu obyek secara simultan atau serentak.

Metode analisis multivariat adalah suatu metode statistika yang tujuan digunakannya adalah untuk menganalisis data yang terdiri dari banyak variabel serta diduga antar variabel tersebut saling berhubungan satu sama lain.

Analisis multivariat adalah salah satu dari teknik statistik yang diterapkan untuk memahami struktur data dalam dimensi tinggi. Dimana variabel-variabel yang dimaksud tersebut saling terkait satu sama lain.

Berdasarkan beberapa definisi Analisis Multivariat di atas, maka statistikian menyimpulkan bahwa yang dimaksud dengan Analisis Multivariat adalah suatu analisis yang melibatkan variabel dalam jumlah lebih dari atau sama dengan 3 variabel, dimana minimal ada satu variabel terikat dan lebih dari satu variabel bebas serta terdapat korelasi atau keterikatan antara satu variabel dengan variabel lainnya. Maka dapat diartikan bahwa Analisis Multivariat juga merupakan analisis yang melibatkan cara perhitungan yang kompleks untuk memahami struktur data berdimensi tinggi dan saling terkait satu sama lain.

Teori dari Metode analisis multivariat dalam hal ini sebenarnya telah diketahui sejak lama sekali, hanya saja karena cara perhitungannya yang rumit maka jarang sekali diterapkan. Tetapi akhir-akhir ini, bersamaan dengan berkembangnya teknologi, dimana muncul aplikasi komputer seperti SPSS untuk menghitung atau menganalisis metode statistik dengan mudah, barulah Analisis Multivariat ini sering digunakan oleh para peneliti karena kemudahan-kemudahan yang diberikan oleh aplikasi komputer dan banyaknya informasi yang bisa didapat dari Analisis Multivariat ini.

Statistikian juga berpendapat bahwa telah sering terjadi kesalahpahaman yang mendasar dari para mahasiswa atau bahkan para peneliti tentang definisi Analisis Multivariat, yaitu kerancuan dalam memahami perbedaan antara Analisis Multivariat dan analisis multiple. Perlu dipahami dan diperhatikan, bahwa pengertian Analisis Multivariat benar-benar berbeda dengan analisis multiple atau disebut juga analisis multivariabel. Kalau tentang Analisis Multivariat sudah dibahas di atas, saatnya kita coba kupas tentang analisis multivariabel.

Analisis multivariabel adalah analisis yang melibatkan lebih dari satu variabel bebas. Dalam pengertian tersebut, kita tidak perlu mengetahui apakah di antara beberapa variabel tersebut, baik variabel bebas maupun variabel terikat terdapat keterikatan atau korelasi satu sama lain. 
Maka statistikian dapatmenyimpulkan perbedaan antara Analisis Multivariat dan analisis multivariabel, yaitu: Analisis Multivariat pastilah analisis multivariabel, sedangkan analisis multivariabel belum tentu Analisis Multivariat.

Baiklah, untuk meningkatkan pemahaman para pembaca, kami coba jelaskan lebih jauh pengertian harfiah dari Variate. Alasan statistikian perlu menjelaskannya adalah karena Analisis Multivariat tidak pernah bisa lepas dari variate. Maka, pertanyaannya: apakah yang disebut dengan variate?

Pengertian Variat
Titik penyusun bangunan atau pondasi dari Analisis Multivariat adalah variat itu sendiri
Variat adalah suatu kombinasi linear dari variabel-variabel yang memiliki bobot empiris yang telah ditentukan

Suatu variate dari sejumlah n variabel yang terbobot (X1 sampai dengan Xn)  dapat dinyatakan secara matematis adalah sebagai berikut: nilai variate = w1X1+ w2X2+ w3X3+…+wnXn.

Sebelum melangkah lebih jauh, penting sekali bagi para pembaca, bahwa Analisis Multivariat adalah salah satu bentuk dari analisis inferensial, yang artinya dianalisis pada sejumlah sampel saja. Dan dimana hasilnya nanti digunakan sebagai alat generalisasi untuk keseluruhan populasi. Oleh karena itu, nantinya dalam Analisis Multivariat tidak akan lepas dari istilah-istilah signifikansi dan juga tingkat kesalahan dan derajat kepercayaan.

Seperti halnya analisis statistik lainnya, Analisis Multivariat yang kita bahas ini juga tidak lepas dari jenis data atau skala data. Skala data yang digunakan ada dua macam, yaitu data metrik dan data non metrik. Data metrik adalah data yang bersifat numerik atau berisi angka-angka dan dapat dilakukan perhitungan matematis di dalamnya, misal nilai ujian, tingkat IQ, berat badan, dll. Data metrik disebut juga dengan data numerik atau data kuantitatif. Dalam hal ini data metrik ada 2 macam, yaitu data interval dan data rasio. Untuk lebih jelasnya pelajari artikel kami tentang skala data. Sedangkan data non metrik adalah data non numerik atau disebut juga data kualitatif atau data kategorik. Ada dua macam jenis data non metrik ini, yaitu data nominal dan data ordinal. Sekali lagi, agar anda lebih paham lagi maka untuk lebih jelasnya silahkan pelajari artikel kami tentang skala data.

Baiklah, sepertinya pembukaan atau pengantar tentang Analisis Multivariat telah kita lalui. Selanjutnya kita bahas lebih dalam lagi tentang klasifikasi Analisis Multivariat.


Klasifikasi Analisis Multivariat

Klasifikasi analisis multivariat ada tiga macam, yaitu yang pertama adalah teknik dependensi  atau istilah english versionnya adalah dependent technique. Yang kedua adalah teknik interdependensi atau english versionnya adalah interdependent technique. Dan yang ketiga atau yang terakhir adalah dan model struktural atau english versionnya disebut dengan istilah structural model.

Para pakar ada yang menyebutkan bahwa Analisis Multivariat hanya dikelompokkan ke dalam 2 klasifikasi saja, yaitu analisis dependensi dan analisis interdependensi. Menurut statistikian, tidak ada masalah tentang perbedaan ini, sebab para pakar yang berpendapat bahwa ada dua klasifikasi, telah memasukkan Model Struktural atau struktural equation modelling sebagai bagian dari klasifikasi analisis dependensi.

Teknik Dependensi Analisis Multivariat

Teknik Dependensi Analisis Multivariat adalah suatu metode Analisis Multivariat dimana variabel atau kumpulan variabel yang diidentifikasi sebagai variabel dependen atau variabel terikat dapat diprediksi atau dijelaskan oleh variabel lain yang merupakan variabel independen atau variabel bebas. 

Analisis dependensi berfungsi untuk menerangkan atau memprediksi variabel terikat dengan menggunakan dua atau lebih variabel bebas. 

Sehingga berdasarkan pengertian di atas, maka analisis yang termasuk di dalam klasifikasi analisis dependensi antara lain: analisis regresi linear berganda atau multiple linear regression, analisis diskriminan atau discriminant analysis, analisis varian multivariate (MANOVA), dan analisis korelasi kanonikal atau canonical correlations.

Berikut kami tampilkan jenis-jenis analisis dependensi dalam bentuk tabel beserta skala data dan jumlah variabel yang dianalisis:


Teknik Dependensi Analisis Multivariat
Teknik Dependensi Analisis Multivariat


Dari tabel diatas, dapat kami jelaskan bahwa:
Regresi linear dan regresi logistik digunakan jika jumlah variabel dependen ada 1. Perbedaannya adalah, regresi linear digunakan jika skala data variabel terikat adalah metrik. Sedangkan regresi logistik, skala data variabel terikat adalah non metrik. Analisis diskriminan juga melibatkan satu variabel terikat, namun sama halnya dengan regresi logistik, skala data variabel terikat adalah data non metrik. Analisis diskriminan lebih dekat dengan regresi linear dari pada regresi logistik, sebab analisis diskriminan mewajibkan variabel bebas yang berskala data numerik haruslah berdistribusi normal. Sedangkan regresi logistik tidak mewajibkan asumsi tersebut. Analisis konjoin hampir sama dengan analisis diskriminan, namun pada analisis konjoin, semua data yang digunakan adalah data non metrik. Analisis Kanonikal lebih mirip dengan analisis diskriminan, hanya saja jumlah variabel terikat yang digunakan lebih dari satu. Sedangkan MANOVA lebih mirip dengan analisis kanonikal, dimana perbedannya adalah pada MANOVA atau yang biasa disebut dengan Multivariate Analysis of Variance menggunakan data non metrik pada variabel bebas.

Agar anda lebih paham lagi, kami jelaskan beberapa pengertian tentang analisis dependensi yang sudah disebutkan di atas.

Multiple Linear Regression atau Regresi Linear Berganda
Regresi Linear Berganda adalah metode analisis ini bertujuan menguji hubungan antara dua variabel bebas atau lebih dan satu variabel terikat. Silahkan pelajari lebih jauh tentang Analisis Regresi Korelasi.

Multiple Discriminant Analysis atau Analisis Diskriminan Berganda
Analisis Diskriminan Berganda adalah suatu teknik statistika yang bertujuan untuk memprediksi atau meramalkan probabilitas dari objek yang termasuk ke dalam dua atau lebih kategori mutual yang eksklusif pada variabel terikat yang berdasarkan pada beberapa variabel bebas. Asumsi dari analisis Diskriminan Berganda adalah adalah variabel bebas harus berupa data metrik dan berdistribusi normal. Silahkan pelajari lebih jauh tentang Analisis Diskriminan.

Multiple Logit Regression atau Multiple Logistic Regression atau Regresi logistik Berganda
Regresi logistik Berganda adalah model regresi dimana satu variabel terikat non metrik yang diprediksi atau diramalkan oleh beberapa variabel bebas berskala data metrik atau non metrik. Teknik ini hampir sama dengan analisis diksriminan, hanya saja dalam perhitungannya menggunakan prinsip perhitungan regresi seperti halnya regresi linear. Silahkan pelajari lebih jauh tentang regresi logistik.

Multivariate Analysis of Variance (MANOVA) 
Suatu teknik statistik yang menyediakan suatu uji signifikansi simultan perbedaan rata-rata antara kelompok-kelompok untuk dua atau lebih variabel dependen. Silahkan pelajari lebih jauh tentang MANOVA.

Conjoint Analysis atau Analisis Konjoin
Analisis Konjoin adalah sebuah teknik statistik yang bertujuan untuk memahami preferensi responden terhadap suatu produk atau jasa. Analisis ini juga dikenal dengan istilah english versionnya sebagai trade off analysis.

Canonical Correlation atau Korelasi Kanonikal
Korelasi Kanonikal adalah bentuk pengembangan dari analisis regresi linear berganda. Tujuan dari analisis korelasi kanonikal adalah untuk mengkorelasikan secara simultan beberapa variabel terikat dengan beberapa variabel bebas. Perbedannya dengan regresi linear berganda adalah: regresi linear berganda hanya menggunakan satu variabel terikat dengan beberapa variabel bebas, sedangkan pada korelasi kanonikal ini menggunakan beberapa variabel terikat yang akan dikorelasikan dengan variabel bebas.


Teknik Interdependensi Analisis Multivariat

Teknik Interdependensi Analisis Multivariat adalah Analisis Multivariat yang melibatkan analisis secara serentak dari semua variabel dalam satu kumpulan, tanpa membedakan antara variabel yang terikat ataupun variabel yang bebas.

Teknik analisis interdependensi berguna dalam memberikan makna terhadap sekelompok variabel atau membuat kelompok kelompok secara bersama-sama.

Berikut kami tampilkan jenis analisis interdependensi menggunakan tabel:

Teknik Interdependensi Analisis Multivariat
Teknik Interdependensi Analisis Multivariat


Berikut kami coba jelaskan satu persatu tentang jenis-jenis analisis interdependensi diatas.

Factor Analysis atau Analisis Faktor. 
Analisis faktor adalah sebuah teknik statistika untuk menganalisis struktur dari hubungan timbal balik diantara sejumlah besar variabel yang bertujuan untuk menentukan kumpulan faktor dari common underlying dimensions.

Dalam analisis faktor ada dua jenis analisis, yaitu Principal Components Analysis atau PCA dan Common Factor Analysis. Silahkan pelajari lebih detail di artikel kami: Analisis Faktor.

Cluster Analysis atau Analisis Kluster
Analisis Kluster adalah sebuah teknik statistika yang bertujuan untuk mengelompokkan sekumpulan objek  sehingga setiap objek tersebut mirip dengan objek yang lainnya dalam suatu gugusan atau kluster dan berbeda  dari objek yang berada pada semua gugusan lainnya.

Dalam analisis kluster, ada dua jenis analisis, yaitu analisis kluster hirarki dan analisis kluster non hirarki. Silahkan pelajari lebih detail di artikel kami: Analisis Kluster.


Multidimensional Scaling atau Penskalaan Multi Dimensi
Multidimensional Scaling adalah sebuah teknik statistika yang bertujuan dalam mengukur objek pada skala multidimensi yang berdasarkan pada keputusan dari responden terhadap kesamaan objek.

Correspondence Analysis atau Analisis Korespondensi
Analisis Korespondensi adalah suatu teknik statistika yang menggunakan data-data non metrik dan bertujuan untuk melakukan evaluasi terhadap hubungan linear atau hubungan non linear, dimana sebagai bentuk usaha dalam mengembangkan perceptual map yang menggambarkan asosiasi atau hubungan antara objek dengan seperangkat karakteristik deskriptif dari objek tersebut.


Teknik Model Struktural Atau Structural Model Analisis Multivariat
Teknik yang terakhir ini, yaitu Teknik Model Struktural adalah sebuah teknik yang yang mencoba menganalisis hubungan secara simultan variabel dependen dan independen secara bersamaan. Model seperti ini dikenal dengan istlah model persamaan struktural atau english versionnya adalah Structural Equation Model dan biasa disingkat dengan SEM. Kelebihan dari SEM ini adalah dapat meneliti hubungan antara beberapa kelompok variabel secara bersamaan atau serentak, baik variabel bebas maupun variabel terkat. Bahkan metode ini juga dapat menggabungkan adanya variabel laten. Variabel laten dalam hal ini adalah variabel yang sebenarnya keberadaannya tidak dapat diukur secara langsung ke dalam analisis.

Demikian telah kami coba jelaskan sedikit tentang analisis multivariat. Agar anda lebih pahami lagi secara detail, silahkan pelajari beberapa artikel kami yang membahas lebih spesifik lagi tentang jenis-jenis analisis yang digunakan dalam analisis multivariat. Dalam situs kami, www.statistikian.com telah kami coba sediakan sebanyak dan selengkap mungkin. Termasuk cara atau tutorial analisis multivarite tersebut yang tentunya banyak sekali jenisnya, baik yang menggunakan aplikasi SPSS, STATA, Minitab atau bahkan menggunakan aplikasi Excel. Stay Tune Up With www.statistikian.com.


Sebuah Blog Untuk Belajar Jenis Uji Statistik, Penelitian, Statistik Berbasis Komputer, Statistik Dalam Excel, Tutorial SPSS, STATA dan Minitab.

Uji Multikolinearitas

Uji multikolinearitas adalah uji yang dilakukan untuk memastikan apakah di dalam sebuah model regresi ada interkorelasi atau kolinearitas antar variabel bebas. Interkorelasi adalah hubungan yang linear atau hubungan yang kuat antara satu variabel bebas atau variabel prediktor dengan variabel prediktor lainnya di dalam sebuah model regresi. Interkorelasi itu dapat dilihat dengan nilai koefisien korelasi antara variabel bebas, nilai VIF dan Tolerance, nilai Eigenvalue dan Condition Index, serta nilai standar error koefisien beta atau koefisien regresi parsial.

Seperti yang sudah kita pahami sebelumnya bahwa multikolinearitas dapat terjadi pada beberapa model regresi, antara lain regresi linear, baik regresi linear sederhana, regresi linear berganda, regresi data panel ataupun regresi yang lainnya seperti regresi logistik dan cox regression. Oleh karena itu, bagi pembaca kami rekomendasikan untuk mempelajari artikel-artikel kami tentang hal-hal yang disebutkan diatas, terutama artikel yang berjudul Multikolinearitas.

Uji Multikolinearitas dengan SPSS

Cara uji multikolinearitas dengan SPSS sangatlah mudah dan praktis serta dapat dilakukan dengan cepat jika menggunakan aplikasi SPSS, karena jadi satu proses dengan langkah pengujian regresi itu sendiri. Langkah Uji multikolinearitas di dalam SPSS tersebut akan kami jelaskan dalam bahasan ini sebagai tindak lanjut dari artikel sebelumnya yang menjelaskan secara rinci tentang pengertian multikolinearitas hingga dampak yang diakibatkannya pada model regresi yang para peneliti lakukan.
Berikut adalah tutorial uji multikolinearitas dengan SPSS:

Buat dataset yang di di dalamnya terdapat 3 variabel, dengan perincian: 1 variabel dependent atau variabel response dan beberapa variabel Independen (Artinya lebih dari satu variabel predictor). Dalam tutorial SPSS ini, kita akan membuat contoh uji multikolinearitas dengan menggunakan 2 variabel independen. Lihat contohnya di bawah ini, yaitu dengan menggunakan 50 sampel.


Dataset Uji Multikolinearitas SPSS
Dataset Uji Multikolinearitas SPSS


Selanjutnya isi dataset tersebut dengan data-data berskala data interval ataupun rasio.


Lakukan langkah sebagai berikut: pada menu, klik analyze -> regression -> linear -> selanjutnya masukkan variabel prediktor ke kolom Independent (s), variabel response ke kolom Dependent. Metode yang dipilih terserah anda, apakah metode enter atau metode stepwise, itu tergantung pada model regresi yang akan anda lakukan terkait dengan pertanyaan-pertanyaan penelitian di dalam metode penelitian anda.


Proses Uji Multikolinearitas SPSS
Proses Uji Multikolinearitas SPSS


Klik tombol statistics dan pastikan bahwa anda mencentang Collinearity Diagnostics dan Descriptives, kemudian tekan tombol Continue. Caranya seperti di bawah ini:


Langkah Uji Multikolinearitas SPSS


Untuk checklist yang lainnya, terserah anda apakah akan digunakan atau tidak. Tentunya jika anda menginginkan hasil yang maksimal dalam rangka untuk membuat sebuah model regresi yang BLUE (Best Linear Unbiased estimation), maka anda harus mencentang semuanya. Oleh karena itu, anda harus mempelajari juga tentang asumsi klasik regresi linear, antara lain: autokorelasi, heteroskedastisitas, outlier, linearitas regresi dan normalitas residual pada regresi linear.

Jika anda sudah menyelesaikan prosedur lainnya dalam pengujian di dalam regresi linear, maka tekan tombol OK pada jendela utama SPSS. Dan selanjutnya lihatlah outputnya.


Cara Baca Uji multikolinearitas SPSS

Berikut kami jelaskan cara baca uji multikolinearitas dengan SPSS atau yang lebih tepatnya kita beri istilah interprestasi. Silahkan buka output anda!

Interkorelasi
Interkorelasi

Pada tabel korelasi menunjukkan hasil analisis interkorelasi antara variabel bebas yang ditandai dengan nilai koefisien korelasi pearson. Dalam hal ini di dalam Output SPSS dapat anda lihat pada persilangan antar variabel bebas. Misalnya dalam tutorial ini, hasil korelasi antara variabel bebas X1 dengan X2 adalah sebesar r = 0,368. Karena nilai 0,368 tersebut kurang dari 0,8 maka gejala multikolinearitas tidak terdeteksi. Selanjutnya akan kita pastikan dengan melihat cara deteksi multikolinearitas lainnya, yaitu berdasarkan nilai standar error dan koefisien beta regresi parsial. Lihat di bawah ini:

Standar Error Uji Multikolinearitas
Standar Error Uji Multikolinearitas

Dalam tabel coefficient dapat anda perhatikan bahwa nilai standar error kurang dari satu, yaitu X1 = 0,121 dan X2 = 0,118 dimana keduanya kurang dari satu. Serta nilai koefisien beta juga kurang dari satu dimana X1 = 0,624 dan X2 = 0,407. Maka dapat dikatakan bahwa nilai standar error rendah dan multikolinearitas tidak terdeteksi. Selanjutnya pastikan lagi dengan nilai rentang upper dan lowerbound confidence interval, apakah lebar atau sempit. Berikut hasilnya:

VIF dan Tolerance Uji Multikolinearitas
VIF dan Tolerance Uji Multikolinearitas

Perhatikan pada tabel coefficient di atas, bahwa nilai rentangnya sempit, yaitu pada X1 = 0,865 sampai dengan 1,156. Sedangkan pada X2 juga kebetulan hasilnya sama yaitu X2 = 0,865 sampai dengan 1,156. Karena rentangnya sempit maka multikolinearitas tidak terdeteksi.

Pada tabel yang sama di atas sebagai hasil uji regresi linear, perhatikan nilai VIF dan Tolerance. Kedua ini adalah indikasi kuat yang sering dipakai oleh para peneliti untuk menyimpulkan fenomena terjadinya interkorelasi variabel bebas. Jika nilai VIF kurang dari 10 dan atau nilai Tolerance lebih dari 0,01 maka dapat disimpulkan dengan tegas bahwa tidak terdapat masalah multikolinearitas. Dan sebaliknya maka dapat disimpulkan dengan tegas pula bahwa multikolinearitas telah terjadi dalam model. Selanjutnya yang terakhir di dalam output proses yang sudah kita lakukan, kita perhatikan nilai dari collinearity diagnostics seperti di bawah ini:

Collinearity Diagnostics SPSS
Collinearity Diagnostics SPSS

Pada tabel collinearity diagnostics di atas sebagai hasil uji regresi linear, kita perhatikan juga nilai eigenvalue dan condition index. Jika Eigenvalue lebih dari 0,01 dan atau Condition Index kurang dari 30, maka dapat disimpulkan bahwa gejala multikolinearitas tidak terjadi di dalam model regresi. Dalam tutorial SPSS ini, nilai eigenvalue 0,02 > 0,01 walaupun collinearity diagnostics 40,458 dimana lebih dari 30.

Kesimpulan Uji Multikolinearitas

Kesimpulan dari tutorial multikolinearitas SPSS ini adalah tidak terdapat masalah multikolinearitas, sehingga hasil pengujian dikatakan reliabel atau terpercaya. Maka nilai koefisien regresi parsial dikatakan handal dan robust atau kebal terhadap perubahan-perubahan yang terjadi pada variabel lainnya di dalam model regresi berganda. Untuk memahami secara kompleks, silahkan baca artikel menarik kami lainnya hanya di www.statistikian.com.

Sebuah Blog Untuk Belajar Jenis Uji Statistik, Penelitian, Statistik Berbasis Komputer, Statistik Dalam Excel, Tutorial SPSS, STATA dan Minitab.

Multikolinearitas

Definisi Multikolinearitas

Multikolinearitas adalah sebuah situasi yang menunjukkan adanya korelasi atau hubungan kuat antara dua variabel bebas atau lebih dalam sebuah model regresi berganda. Model regresi yang dimaksud dalam hal ini antara lain: regresi linear, regresi logistik, regresi data panel dan cox regression. Dalam situasi terjadi multikolinearitas dalam sebuah model regresi berganda, maka nilai koefisien beta dari sebuah variabel bebas atau variabel predictor dapat berubah secara dramatis apabila ada penambahan atau pengurangan variabel bebas di dalam model. Oleh karena itu, multikolinearitas tidak mengurangi kekuatan prediksi secara simultan, namun mempengaruhi nilai prediksi dari sebuah variabel bebas. Nilai prediksi sebuah variabel bebas disini adalah koefisien beta. Oleh karena itu, sering kali kita bisa mendeteksi adanya multikolinearitas dengan adanya nilai standar error yang besar dari sebuah variabel bebas dalam model regresi.

Berdasarkan penjelasan di atas, maka dapat disimpulkan bahwa, jika terjadi multikolinearitas, maka sebuah variabel yang berkorelasi kuat dengan variabel lainnya di dalam model, kekuatan prediksinya tidak handal dan tidak stabil. Dan pengertian multikolinearitas adalah sesungguhnya terletak pada ada atau tidak adanya korelasi antar variabel bebas.

Penyebab Multikolinearitas

Penyebab multikolinearitas adalah adanya korelasi atau hubungan yang kuat antara dua variabel bebas atau lebih, seperti yang sudah dijelaskan di atas. Namun penyebab lainnya yang dapat menyebabkan hal tersebut secara tidak langsung adalah, antara lain: 
  1. Penggunaan variabel dummy yang tidak akurat di dalam model regresi. Akan lebih beresiko terjadi multikolinearitas jika ada lebih dari 1 variabel dummy di dalam model. 
  2. Adanya perhitungan sebuah variabel bebas yang didasarkan pada variabel bebas lainnya di dalam model. Hal ini bisa dicontohkan sebagai berikut: dalam model regresi anda, ada variabel X1, X2 dan Perkalian antara X1 dan X2 (X1*X2). Dalam situasi tersebut bisa dipastikan, terdapat kolinearitas antara X1 dan X1*X2 serta kolinearitas antara X2 dengan X1*X2.
  3. Adanya pengulangan variabel bebas di dalam model, misalkan: Y = Alpha + Beta1 X1 + Beta2 X1*5 + Beta3 X3 + e.


Dampak dari Multikolinearitas

Dampak dari multikolinearitas antara lain:
  1. Koefisien Partial Regresi tidak terukur secara presisi. Oleh karena itu nilai standar errornya besar.
  2. Perubahan kecil pada data dari sampel ke sampel akan menyebabkan perubahan drastis pada nilai koefisien regresi partial.
  3. Perubahan pada satu variabel dapat menyebabkan perubahan besar pada nilai koefisien regresi parsial variabel lainnya.
  4. Nilai Confidence Interval sangat lebar, sehingga akan menjadi sangat sulit untuk menolak hipotesis nol pada sebuah penelitian jika dalam penelitian tersebut terdapat multikolinearitas.


Untuk memudahkan para pembaca memahami dampak di atas, kami coba ilustrasikan sebagai berikut:
Anda harus pahami dulu yang dimaksud dengan koefisien regresi parsial. Dalam hal ini biasanya lebih dikenal dengan istilah koefisien Beta. Koefisien Beta itu seperti yang ada dalam contoh persamaan regresi berikut: Y = Alpha + Beta1 X1 + Beta2 X2 + e.

Berikut kami contohkan sebuah model regresi yang terdapat masalah multikolinearitas, yaitu dengan persamaan Y = Alpha + Beta1 X1 + Beta2 X2 + Beta3 X1*X2 + e. (Dimana X1*X2 adalah hasil perkalian antara X1 dengan X2).

Apabila kita punya data sebagai gambar berikut: ada X1, X2 dan Perkalian antara X1 dengan X2 yaitu X1X2.

Dataset Multikolinearitas
Dataset Multikolinearitas



Pertama kali kita lakukan regresi tanpa melibatkan variabel X1X2, yaitu: persamaan Y = Alpha + Beta1 X1 + Beta2 X2 + Beta3 X1*X2 + e. Berikut Hasilnya:

Output Multikolinearitas
Output Multikolinearitas


Perhatikan di atas: Nilai Standar Error X2 sebesar 1,044 dimana nilainya > 1. dan nilai standar error Constant 3,887 dimana juga nilainya > 1. Hal ini menunjukkan bahwa dengan adanya multikolinearitas, nilai standar error menjadi besar, sehingga nilai Koefisien Beta (B) tidak dapat mengukur variabel terikat secara presisi.

Perhatikan nilai Confidence Interval, baik Lower Bound maupun Upper Bound, rentangnya sangat lebar. Misal pada X1, rentangnya antara -0,827 sd 3,108. Dan pada X2 nilai rentangnya -1,138 sd 3,066. Hal ini yang menyebabkan nilai signifikansi t parsial di atas lebih dari batas kritis 0,05 atau terima H0, yaitu pada X1 sebesar 0,249, pada X2 sebesar 0,361 dan pada X1*X2 sebesar 0,595. Hal ini menunjukkan bahwa, keberadaan sebuah variabel yang berkorelasi kuat dengan variabel lainnya di dalam model dapat menyebabkan perubahan secara dramatis nilai koefisien regresi parsial. Berikut akan kami buktikan sebagai berikut:

Kita akan bandingkan apabila model regresi tanpa melibatkan variabel X1*X2, hasilnya adalah di bawah ini:

Output Non Multikolinearitas
Output Non Multikolinearitas

Lihat pada tabel "Output Non Multikolinearitas", jika tanpa variabel penyebab multikolinearitas yaitu X1*X2, maka hasilnya: Nilai standar error pada X1, X2 dan constant adalah kurang dari 1. Nilai Rentang Confidence Interval sempit, yaitu pada X1 rentangnya 0,378 sd 0,866 dan pada X2 rentangnya 0,172 sd 0,646, sehingga signifikansi t parsial adalah pada X1 sebesar 0,000 dan pada X2 sebesar 0,001 dimana keduanya kurang dari batas kritis 0,05 atau dapat diartikan keduanya terima H1. Hasil diatas menunjukkan bahwa sesungguhnya X1 dan X2 linear terhadap variabel terikat, namun dengan penambahan variabel yang menyebabkan multikolinearitas, maka nilai signifikansi t parsial berubah secara drastis. Sehingga dapat diambil kesimpulan bahwa sesungguhnya nilai prediksi yang dihasilkan pada model yang terdapat multikolinearitas (tabel Output multikolinearitas) tidak dapat memprediksi variabel terikat secara presisi.

Cara mendeteksi Multikolinearitas

Cara mendeteksi adanya Multikolinearitas di dalam model regresi adalah dengan cara:
  1. Melihat kekuatan korelasi antar variabel bebas. Jika ada korelasi antar variabel bebas > 0,8 dapat diindikasikan adanya multikolinearitas.
  2. Melihat nilai standar error koefisien regresi parsial. Jika ada nilai standar error > 1, maka dapat diindikasikan adanya multikolinearitas.
  3. Melihat rentang confidence interval. Jika rentang confidence interval sangat lebar, maka dapat diindikasikan adanya multikolinearitas.
  4. Melihat nilai Condition Index dan eigenvalue. Jika nilai condition index > 30 dan nilai eigenvalue < 0,001 dapat diindikasikan adanya multikolinearitas.
  5. Melihat nilai Tolerance dan Variance Inflating Factor (VIF). Jika nilai Tolerance < 0,1 dan VIF > 10 dapat diindikasikan adanya multikolinearitas. Sebagian pakar menggunakan batasan Tolerance < 0,2 dan VIF > 5 dalam menentukan adanya multikolinearitas. Para pakar juga lebih banyak menggunakan nilai Tolerance dan VIF dalam menentukan adanya Multikolinearitas di dalam model regresi linear berganda dibandingkan menggunakan parameter-parameter yang lainnya. Hal ini juga dalam prakteknya menggunakan SPSS, kita sudah disuguhkan dengan hasil yang instant, dimana kita bisa langsung lihat nilai keduanya di dalam output SPSS.  


Kapan Multikolinearitas dapat dipertahankan

Ada kalanya kita tetap mempertahankan adanya multikolinearitas di dalam model regresi. Yaitu jika kita berada dalam kondisi sebagai berikut:
1. Nilai VIF tinggi hanya pada variabel kontrol, sedangkan pada variabel interest, nilai VIF rendah. Meskipun pada variabel kontrol nilai VIF tinggi, tetapi pada variabel interest nilai VIF rendah, maka dapat diartikan bahwa nilai prediksi dari variabel yang menjadi bahan perhatian dalam model tetap dapat mengukur variabel terikat secara presisi. Mengapa bisa seperti itu? kami akan ilustrasikan, misalkan model kita ada 3 variabel, yang menjadi variabel interest adalah variabel dummy, yaitu Jenis Kelamin (Laki-laki dan perempuan). Sedangkan variabel kontrol ada 2, yaitu penghasilan bulanan dan belanja bulanan. Dalam hal ini, antara kedua variabel kontrol terdapat korelasi yang kuat, sehingga VIF keduanya tinggi. Namun keduanya tidak berkorelasi dengan Jenis Kelamin yang menjadi variabel interest. Sehingga nilai VIF Jenis Kelamin rendah.

2. Nilai VIF tinggi yang disebabkan oleh sebab inklusi karena hasil perkalian atau kuadrat di dalam model, namun kedua variabel tersebut berkorelasi kuat terhadap hasil perkaliannya. Misalkan model kita terdapat variabel bebas X1, X2 dan X1*X2. Dimana X1*X2 adalah hasil perkalian X1 dan X2. Kita ilustrasikan dengan cara melakukan Standarisasi berdasarkan data yang digunakan pada contoh di atas (Dataset Multikolinearitas). Standarisasi kita lakukan pada semua variabel, baik X1, X2 dan Y sebelum kita kalikan antara X1 dan X2. Setelah distandarisasi baik X1 dan X2, selanjutnya variabel baru hasil standarisasi tersebut kita kalikan, misal kita beri nama hasil standarisasi X1 menjadi SX1, X2 menjadi SX2 dan Y menjadi SY. Kita kalikan SX1 dengan SX2 menjadi SX1X2. Selanjutnya kita lakukan uji regresi linear dengan model: SY = Alpha + Beta1 SX1 + Beta2 SX2 + Beta3 SX1X2 + e.
Dengan sumber data yang sama, kita lihat hasilnya di bawah ini:

Output Product Standarisasi
Output Product Standarisasi

Perhatikan di atas: Nilai Standar error rendah, rentang lower dan upper bound sempit, serta Signifikansi t parsial tetap signifikan. Kalau kita telusuri nilai VIFnya, perhatikan di bawah ini:

VIF Product Standarisasi
VIF Product Standarisasi


 Lihat bahwa nilai VIF tetap rendah, yaitu < 5 atau < 10.


3. Model regresi dengan variabel dummy dengan jumlah kategori variabel dummy adalah tiga kategori atau lebih. Dikatakan tidak akan menjadi masalah jika terdapat perbedaan jumlah yang mencolok anggota sampel didalam kategori, dimana yang menjadi kategori referensi adalah kategori yang jumlah anggotanya sedikit. Sebagai contoh: jumlah sampel sebanyak 100 orang. Variabel Dummy adalah "Jenis Pekerjaan (Petani, Buruh, PNS)". Anggota kategori Petani 45 orang, Buruh 45 orang, sedangkan PNS 10 orang. Selanjutnya yang menjadi referensi adalah yang anggotanya sedikit, yaitu PNS. Hal ini menyebabkan Variabel Dummy tidak akan berkorelasi terhadap variabel lainnya, sebab yang menjadi referensi adalah yang jumlah anggotanya paling sedikit.


Cara Mengatasi Multikolinearitas

Cara mengatasi multikolinearitas adalah dengan cara:
  1. Jika jumlah variabel banyak, maka kita dapat melakukan Analisis Faktor sebelum regresi. Setelah analisis faktor, variabel baru yang terbentuk kita gunakan sebagai variabel di dalam model regresi.
  2. Dengan cara memilih salah satu diantara variabel bebas yang berkorelasi kuat. Oleh karena itu, sebelumnya anda harus mencari variabel yang nilai VIFnya tinggi dan nilai korelasinya dengan variabel bebas lainnya kuat.
  3. Dengan cara melakukan operasi matematis antar variabel bebas yang berkorelasi kuat sehingga didapat variabel baru hasil operasi tersebut yang kemudian dimasukkan ke dalam model regresi sebagai perwakilan dari variabel yang menjadi sumber operasi matematis tersebut.
  4. Melakukan standarisasi terhadap variabel yang menjadi penyebab inklusi perkalian antara variabel, dimana hasil perkalian setelah standarisasi tersebut yang dimasukkan ke dalam model bersama-sama dengan variabel yang sudah distandarisasi.


Selanjutnya sampailah kita pada bahasan untuk melakukan uji multikolinearitas menggunakan aplikasi SPSS. Bagaimana cara uji multikolinearitas dengan SPSS? Akan kita bahas pada artikel selanjutnya yaitu Uji Multikolinearitas.

Sebuah Blog Untuk Belajar Jenis Uji Statistik, Penelitian, Statistik Berbasis Komputer, Statistik Dalam Excel, Tutorial SPSS, STATA dan Minitab.

Metodologi Penelitian

Definisi Metodologi

Metodologi penelitian merupakan sebuah cara untuk mengetahui hasil dari sebuah permasalahan yang spesifik, dimana permasalahan tersebut disebut juga dengan permasalahan penelitian. Dalam Metodologi, peneliti menggunakan berbagai kriteria yang berbeda untuk memecahkan masalah penelitian yang ada. Sumber yang berbeda menyebutkan bahwa penggunaan berbagai jenis metode adalah untuk memecahkan masalah. Jika kita berpikir tentang kata "Metodologi", itu adalah cara mencari atau memecahkan masalah penelitian. (Research Institute Industrial, 2010).


Metodologi Penelitian
Metodologi Penelitian


Dalam Metodologi Penelitian, peneliti selalu berusaha untuk mencari pertanyaan yang diberikan dengan cara-cara yang sistematis yang digunakan dan berupaya untuk mengetahui semua jawaban sampai dapat mengambil kesimpulan. Jika penelitian tidak dilakukan secara sistematis pada masalah, akan lebih sedikit kemungkinannya untuk dapat mengetahui hasil akhir. Untuk menemukan atau menjelajahi pertanyaan penelitian, peneliti akan menghadapi berbagai permasalahan,  dimana semua itu baru dapat diselesaikan secara efektif jika menggunakan metodologi penelitian yang benar (Industrial Research Institute, 2010).

Dalam istilah sederhana, metodologi dapat diartikan sebagai, memberikan sebuah ide yang jelas tentang metode apa atau peneliti akan memproses dengan cara bagaimana di dalam penelitiannya agar dapat mencapai tujuan penelitian. Dalam rangka untuk merencanakan proses penelitian secara keseluruhan dan agar penelitian dapat selesai tepat waktu serta penelitian berjalan di arah yang benar, maka peneliti haruslah hati-hati dalam memilih metodologi penelitian. Sehingga proses pemilihan metode penelitian adalah bagian yang sangat penting di dalam proses penelitian. Dengan kata lain; Metodologi penelitian berguna dalam rangka memetakan pekerjaan penelitian secara keseluruhan dan memberikan kredibilitas kepada hasil penelitian yang dicapai nantinya.

Kesimpulan dari berbagai pengertian tentang metodologi penelitian di atas, menurut versi statistikian adalah: metodologi penelitian adalah sebuah upaya sistematis dalam rangka pemecahan masalah yang dilakukan peneliti agar dapat menjawab permasalahan-permasalahan atau fenomena yang terjadi. Dengan menggunakan metodologi penelitian, peneliti akan dapat mengambil kesimpulan-kesimpulan sehingga dapat menemukan solusi dari permasalahan. Serta kesimpulan-kesimpulan tersebut dapat dipercaya, sebab menggunakan pengukuran-pengukuran secara scientific.

Manfaat Metodologi Penelitian

Manfaat metodologi penelitian adalah:
  1. Menggunakan metodologi penelitian, peneliti dapat memudahkan pekerjaannya agar sampai pada tahap pengambilan keputusan atau kesimpulan-kesimpulan.
  2. Menggunakan metodologi penelitian, para peneliti dapat mengatasi berbagai keterbatasan yang ada, misalnya keterbatasan waktu, biaya, tenaga, etik, dan lain-lain.
  3. Kesimpulan yang diambil oleh peneliti dapat terpercaya.
  4. Kesimpulan yang diambil dapat digunakan untuk memecahkan permasalahan.


Metode Penelitian

Apabila kita sudah memahami arti dan manfaat dari metodologi penelitian, maka kita akan sampai pada pertanyaan: ada berapa macam metode penelitian?
Berdasarkan berbagai sumber yang ada, Metode penelitian ada dua macam, yaitu metode penelitian kuantitatif dan metode penelitian kualitatif. Untuk penjelasan secara komprehensif pada dua jenis metode penelitian ini, statistikian sudah menjelaskannya dalam artikel lain dalam website ini. Silahkan baca:
  1. Penelitian Kuantitatif
  2. Penelitian Kualitatif


Namun, beberapa sumber yang lain menyebutkan bahwa selain metode penelitian kuantitatif dan kualitatif, ada metode yang lain, yaitu korelasi dan analisis regresi serta Meta-Analysis. Statistikian tidak dapat menjelaskan mengapa korelasi, analisis regresi dan meta-analysis menjadi bagian yang lain dari pada metode kuantitatif dan kualitatif. Padahal menurut statistikian, korelasi dan analisis regresi merupakan bagian dari metode penelitian kuantitatif. Dan lebih tepat disebut sebagai jenis-jenis analisis dari pada disebut sebagai jenis metode penelitian. Hal ini menajadi pekerjaan rumah bagi statistikian dan juga para pembaca untuk menemukan jawabannya. Begitu juga Meta-Anaysis, statistikian berpendapat bahwa jenis ini termasuk ke dalam metode penelitian kualitatif. Silahkan para pembaca mencari jawaban sendiri terhadap wacana yang statistikian ajukan ini.

Agar pemahaman pembaca lebih komprehensif, silahkan baca artikel kami tentang Klasifikasi Penelitian dan Desain Penelitian.

References
Industrial Research Institute (2010) Research management. Michigan: Industrial Research Institute.

Sebuah Blog Untuk Belajar Jenis Uji Statistik, Penelitian, Statistik Berbasis Komputer, Statistik Dalam Excel, Tutorial SPSS, STATA dan Minitab.

Interprestasi Prais Winsten dengan STATA

Sebelumnya kita telah mempelajari artikel tentang bagaimana cara uji Prais Winsten dengan STATA. Dalam bahasan kali ini kita akan membahas bagaimana cara menginterprestasikan hasilnya.

Buka dulu artikel sebelumnya, dan outputnya akan seperti ini:



Interprestasi:

  1. Variabel Terikat: Y, Variabel bebas: X1 dan X2.
  2. Rhotype(regress) artinya: Uji Prais Winsten dengan Methode Sigle Lag OLS, dengan iterasi dan tanpa optimasi SSE.
  3. Jumlah iterasi yang dikejakan oleh mesin STATA untuk mencapai nilai Rho yang optimal adalah: 7 iterasi.
  4. Nilai Rho yang optimal pada iterasi ke-7 adalah: -0,0829.
  5. Jumlah observasi: 50.
  6. Pada DF 1 = 2 dan DF 2 = 47, Nilai F Hitung adalah = 90,63.
  7. Nilai R-Squared = 0,7941.
  8. Nilai Adjusted R-Squared = 0,7853.
  9. Root MSE = 6,8967.
  10. Nilai Durbin Watson setelah transformasi prais winsten menjadi lebih optimal mendekati 2, yaitu sebesar = 2,009773.
  11. Nilai T Hitung X1 = 8,38, T Hitung X2 = 4,39.
  12. Nilai P Value Uji T Parsial pada X1 = 0,000, T Parsial pada X2 = 0,000.
  13. Nilai P value Uji F (Uji Simultan) = 0,0000 dimana < 0,05 sehingga terima H1 atau yang berarti secera serentak semua variabel bebas berpengaruh secara simultan terhadap variabel terikat.
  14. Nilai Beta X1 = 0,6289, Beta X2 = 0,3232. Nilai Constanta = -0,6017.
  15. Persamaan Prais Winsten adalah sebagai berikut:


Sekian, terima kasih. Semoga bermanfaat.