Latest Post

Interprestasi Regresi Logistik dengan SPSS

Setelah anda mempelajari tutorial Regresi Logistik dengan SPSS, maka saatnya kita belajar interprestasi dari output yang didapat. Langsung saja anda buka output yang dihasilkan!

Case Processing Summary Regresi Logistik
Case Processing Summary Regresi Logistik

Di atas pada tabel Case Processing Summary adalah ringkasan jumlah sampel, yaitu sebanyak 200 sampel.

Encoding Regresi Logistik
Encoding Regresi Logistik

Di atas adalah kode variabel dependen. Yaitu kategori "Tidak Mengalami Kanker" dengan kode 0 dan "Mengalami Kanker" dengan kode 1. Oleh karena yang diberi kode 1 adalah "Mengalami Kanker", maka "Mengalami Kanker" menjadi referensi atau efek dari sebab. Sebab yang dimaksud adalah kejadian yang dihipotesiskan sebagai penyebab munculnya efek atau masalah. Dalam hal ini, merokok (kode 1) dan ada riwayat keluarga (kode 1) menjadi sebab yang dapat meningkatkan resiko terjadinya kanker paru (kode 1).


Iteration Block 0 Regresi Logistik
Iteration Block 0 Regresi Logistik

Di atas: Tabel Iteration History pada block 0 atau saat variabel independen tidak dimasukkan dalam model: N=200 mendapatkan Nilai -2 Log Likelihood: 276,939.

Degree of Freedom (DF) = N - 1 = 200-1=199. Chi-Square (X2) Tabel Pada DF 199 dan Probabilitas 0.05 = 232,912.

Nilai -2 Log Likelihood (276,939) > X2 tabel (232,912) sehingga menolak H0, maka menunjukkan bahwa model sebelum memasukkan variabel independen adalah TIDAK FIT dengan data.

Classification Table Block 0 Regresi Logistik
Classification Table Block 0 Regresi Logistik

Di atas pada tabel Classifacation Table: Merupakan tabel kontingensi 2 x 2 yang seharusnya terjadi atau disebut juga frekuensi harapan berdasarkan data empiris variabel dependen, di mana jumlah sampel yang memiliki kategori variabel dependen referensi atau akibat buruk (kode 1) yaitu "Mengalami Kanker" sebanyak 104. Sedangkan yang "Tidak mengalami Kanker" sebanyak 96 orang.  Jumlah sampel sebanyak 200 orang. Sehingga nilai overall percentage sebelum variabel independen dimasukkan ke dalam model sebesar: 104/200 = 52,0%.

Variables In The Equation Block 0 Regresi Logistik
Variables In The Equation Block 0 Regresi Logistik

Di atas pada tabel Variables in The Equation: Saat sebelum var independen di masukkan ke dalam model, maka belum ada variabel independen di dalam model. Nilai Slope atau Koefisien Beta (B) dari Konstanta adalah sebesar 0,080 dengan Odds Ratio atau Exp(B) sebesar 1,083. Nilai Signifikansi atau p value dari uji Wald sebesar 0,572.

Perlu diingat bahwa nilai B identik dengan koefisien beta pada Ordinary Least Square (OLS) atau regresi linear. Sedangkan Uji Wald identik dengan t parsial pada OLS. Sedangkan Exp(B) adalah nilai eksponen dari B, maka Exp(0,080) = 1,083.

Variables Not In The Equation Block 0 Regresi Logistik
Variables Not In The Equation Block 0 Regresi Logistik

Di atas pada tabel Variables not in the Equation: Menunjukkan variabel yang belum dimasukkan ke dalam model regresi, yaitu variabel X1 dan X2. Di mana X1 adalah variabel merokok dan X2 adalah variabel riwayat keluarga.

Iteration History Block 1 Regresi Logistik
Iteration History Block 1 Regresi Logistik

Di atas pada tabel Iteration history Block 1 atau saat variabel independen dimasukkan dalam model: N=200. Degree of Freedom (DF) = N - jumlah variabel independen - 1 = 200-2-1=197. Chi-Square (X2) Tabel Pada DF 197 dan Prob 0.05 = 230,746. 

Nilai -2 Log Likelihood (207,575) < X2 tabel (230,746) sehingga menerima H0, maka menunjukkan bahwa model dengan memasukkan variabel independen adalah FIT dengan data. Hal ini berbeda dengan Block Beginning di atas, di mana saat sebelum variabel independen dimasukkan ke dalam model, model TIDAK FIT dengan data.

Omnibus Test


Omnibus Test Regresi Logistik
Omnibus Test Regresi Logistik

Tampak di atas bahwa selisihnya (-2 Log likelihood sebelum variabel independen masuk model: 276,939 dikurangi -2 Log likelihood setelah variabel independen masuk model: 207,575 = 69,364) adalah nilai chi-square 69,394. 

Nilai X2 69,394 > X2 tabel pada DF 2 (jumlah variabel independen 2) yaitu 5,991 atau dengan signifikansi sebesar 0,000 (< 0,05) sehingga menolak H0, yang menunjukkan bahwa penambahan variabel independen DAPAT memberikan pengaruh nyata terhadap model, atau dengan kata lain model dinyatakan FIT. 

Perlu diingat jika pada OLS untuk menguji signifikansi simultan menggunakan uji F, sedangkan pada regresi logistik menggunakan nilai Chi-Square dari selisih antara -2 Log likelihood sebelum variabel independen masuk model dan -2 Log likelihood setelah variabel independen masuk model. Pengujian ini disebut juga dengan pengujian Maximum likelihood.

Sehingga jawaban terhadap hipotesis pengaruh simultan variabel independen terhadap variabel dependen adalah menerima H1 dan menolak H0 atau yang berarti ada pengaruh signifikan secara simultan merokok dan riwayat keluarga terhadap kejadian kanker paru oleh karena nilai p value Chi-Square sebesar 0,000 di mana < Alpha 0,05 atau nilai Chi-Square Hitung 69,364 > Chi-Square tabel 5,991.

Pseudo R Square


Pseudo R-Square Regresi Logistik
Pseudo R-Square Regresi Logistik

Di atas pada tabel Model Summary: Untuk melihat kemampuan variabel independen dalam menjelaskan variabel dependen, digunakan nilai Cox & Snell R Square dan Nagelkerke R Square. Nilai-nilai tersebut disebut juga dengan Pseudo R-Square atau jika pada regresi linear (OLS) lebih dikenal dengan istilah R-Square.

Nilai Nagelkerke R Square sebesar 0,391 dan Cox & Snell R Square 0,293, yang menunjukkan bahwa kemampuan variabel independen dalam menjelaskan variabel dependen adalah sebesar 0,391 atau 39,1% dan terdapat 100% - 39,1% = 60,9% faktor lain di luar model yang menjelaskan variabel dependen.

Hosmer and Lemeshow Test

Hosmer and Lemeshow Test adalah uji Goodness of fit test (GoF), yaitu uji untuk menentukan apakah model yang dibentuk sudah tepat atau tidak. Dikatakan tepat apabila tidak ada perbedaan signifikan antara model dengan nilai observasinya.

Hosmer and Lemeshow Regresi Logistik
Hosmer and Lemeshow Regresi Logistik

Nilai Chi Square tabel untuk DF 1 (Jumlah variabel independen - 1) pada taraf signifikansi 0,05 adalah sebesar 3,841. Karena nilai Chi Square Hosmer and Lemeshow hitung 13,671 > Chi Square table 3,841 atau nilai signifikansi sebesar 0,000 (< 0,05) sehingga menolak H0, yang menunjukkan bahwa model TIDAK dapat diterima dan pengujian hipotesis TIDAK dapat dilakukan sebab ada perbedaan signifikan antara model dengan nilai observasinya.

Oleh karena dalam tutorial ini, nilai Hosmer and Lemeshow Test menolak H0, sebaiknya anda mencoba untuk membuat agar nilai Hosmer and Lemeshow Test menerima H0. Caranya adalah dengan mengubah model persamaan regresi logistik dengan menambahkan variabel interaksi antar variabel independen. Misal pada kasus di sini, dengan menambahkan variabel interaksi antara X1 dan X2. Lebih jelasnya akan saya bahas pada bagian akhir dalam artikel ini yaitu pada bagian VARIABEL INTERAKSI. Sehingga anda untuk sementara bisa melanjutkan pembelajaran ini, seolah-olah hasil uji Hosmer and Lemeshow Test menerima H0.

Classification Result


Classification Table Block 1 Regresi Logistik
Classification Table Block 1 Regresi Logistik

Berdasarkan tabel Classification Table di atas, jumlah sampel yang tidak mengalami kanker 78 + 18 = 96 orang. Yang benar-benar tidak mengalami kanker sebanyak 78 orang dan yang seharusnya tidak mengalami kanker namun mengalami, sebanyak 18 orang. Jumlah sampel yang mengalami kanker 27 + 77 = 104 orang. Yang benar-benar mengalami kanker sebanyak 27 orang dan yang seharusnya mengalami kanker namun tidak mengalami, sebanyak 77 orang.

Tabel di atas memberikan nilai overall percentage sebesar (78+77)/200 = 77,5% yang berarti ketepatan model penelitian ini adalah sebesar 77,5%.

Pendugaan Parameter


Variables In The Equation Block 1 Regresi Logistik
Variables In The Equation Block 1 Regresi Logistik

Lihat tabel Variabel in the equation di atas: semua variabel independen nilai P value uji wald (Sig) < 0,05, artinya masing-masing variabel mempunyai pengaruh parsial yang signifikan terhadap Y di dalam model. X1 atau merokok mempunyai nilai Sig Wald 0,000 < 0,05 sehingga menolak H0 atau yang berarti merokok memberikan pengaruh parsial yang signifikan terhadap kejadian kanker paru. X2 atau riwayat keluarga mempunyai nilai Sig Wald 0,031 < 0,05 sehingga menolak H0 atau yang berarti riwayat keluarga memberikan pengaruh parsial yang signifikan terhadap kejadian kanker paru.

Besarnya pengaruh ditunjukkan dengan nilai EXP (B) atau disebut juga ODDS RATIO (OR). Variabel Merokok dengan OR 6,277 maka orang yang merokok (kode 1 variabel independen), lebih beresiko mengalami kanker paru (kode 1 variabel dependen) sebanyak 6,277 kali lipat di bandingkan orang yang tidak merokok (kode 0 variabel independen). Nilai B = Logaritma Natural dari 6,277 = 1,837. Oleh karena nilai B bernilai positif, maka merokok mempunyai hubungan positif dengan kejadian kanker.

Variabel Riwayat Keluarga dengan OR 2,645 maka orang yang ada riwayat keluarga (kode 1 variabel independen), lebih beresiko mengalami kanker paru (kode 1 variabel dependen) sebanyak 2,645 kali lipat di bandingkan orang yang tidak ada riwayat keluarga (kode 0 variabel independen). Nilai B = Logaritma Natural dari 2,645 = 0,973. Oleh karena nilai B bernilai positif, maka riwayat keluarga mempunyai hubungan positif dengan kejadian kanker.

Berdasarkan nilai-nilai B pada perhitungan di atas, maka model persamaan yang dibentuk adalah sebagai berikut:
Ln P/1-P = -1,214 + 1,837 Rokok + 0,973 Riwayat Keluarga.

Atau bisa menggunakan rumus turunan dari persamaan di atas, yaitu:
Probabilitas = exp(-1,214 + 1,837 Rokok + 0,973 Riwayat Keluarga) / 1 + exp(-1,214 + 1,837 Rokok + 0,973 Riwayat Keluarga).

Misalkan sampel yang merokok dan ada riwayat keluarga, maka merokok=1 dan riwayat keluarga=1. Jika dimasukkan ke dalam model persamaan di atas, maka sebagai berikut:
Probabilitas atau Predicted = (exp(-1,214 + (1,837 x 1) + (0,973 x 1))) / (1 + exp(-1,214 + (1,837 x 1) + (0,973 x 1))).
Probabilitas atau Predicted = (exp(-1,214 + (1,837) + (0,973))) / (1 + exp(-1,214 + (1,837) + (0,973))).
Probabilitas atau Predicted = 0.8315.

Oleh karena Predicted: 0,8315 > 0,5 maka nilai Predicted Group Membership dari sampel di atas adalah 1. Di mana 1 adalah kode mengalami kanker. Jadi jika sampel merokok (kode 1) dan ada riwayat keluarga (kode 1) maka prediksinya adalah mengalami kanker (kode 1). Jika seandainya sampel yang bersangkutan ternyata faktanya tidak mengalami kanker (kode 0) maka sampel tersebut keluar dari nilai prediksi.

Besarnya perbedaan atau yang disebut dengan ResidualPredicted Group Membership - Predicted. Pada kasus di atas di mana orang yang merokok dan ada riwayat keluarga namun faktanya tidak mengalami kanker, maka Residual = 0 - 0,8315 = -0,8315.


Classification Plot Regresi Logistik
Classification Plot Regresi Logistik

Di atas adalah grafik klasifikasi dari observed group dan predicted group membership.

Outlier


Casewise Diagnostics Regresi Logistik
Casewise Diagnostics Regresi Logistik

Di atas adalah hasil deteksi outlier atau data pencilan. Pada kasus dalam tutorial ini tidak ada outlier dengan notifikasi seperti di atas, yaitu: The casewise plot is not produced because no outliers were found. Seandainya ada outlier, maka tampilan akan berubah dalam bentuk tabel yang berisi daftar sampel yang menjadi outlier beserta nilai Studentized Residual.

Dinyatakan outlier apabila nilai Absolut dari Studentized Residual dari sampel tersebut lebih dari 2 (> 2). Di mana Studentized Residual adalah standarisasi berdasarkan Mean dan standart deviasi dari nilai Residual yang telah dibahas di atas.

Variabel Interaksi

Variabel interaksi adalah variabel yang merupakan hasil interaksi antar variabel independen. Variabel ini ada kalanya diperlukan untuk dimasukkan ke dalam model regresi logistik dengan alasan karena secara substantif memang ada hubungan antar variabel independen atau untuk mengatasi masalah Goodness of Fit Test di mana menolak H0.

Caranya adalah dengan menambahkan variabel interaksi ke dalam variabel independen, yaitu pada saat memasukkan variabel independen, seleksi variabel-variabel independen yang akan diinteraksikan, kemudian klik tombol ">a*b>".

Interactions Regresi Logistik
Interactions Regresi Logistik

Selanjutnya lakukan proses seperti yang sudah dijelaskan di atas.

Regresi Logistik dengan SPSS

Pengantar Regresi Logistik telah kami bahas dalam artikel sebelumnya yaitu Regresi Logistik. Sebelum melangkah lebih jauh, ada baiknya kita mengenal dulu beberapa metode yang dipakai dalam pengujiannya menggunakan SPSS. Metode tersebut antara lain metode Simultan, Hirarki dan Stepwise. Berikut Penjelasannya:
  1. Simultan: Disebut juga metode enter, yaitu memasukkan semua variabel bebas ke dalam model secara bersamaan.
  2. Hirarki: Memasukkan variabel secara satu per satu, dimulai dengan memasukkan variabel kontrol sebelum variabel prediktor.
  3. Stepwise: Disebut juga forward conditional, yaitu variabel bebas diseleksi yang terbaik untuk tetap berada dalam model di mana merupakan sekumpulan variabel bebas yang dapat memberikan prediksi terbaik. Sehingga dalam prosesnya pada aplikasi SPSS, variabel dimasukkan dan dikeluarkan secara satu persatu dan bergantian. Namun proses tersebut dapat dijalankan secara otomotasi oleh aplikasi SPSS.

Pada kesempatan ini kita akan membahas bagaimana cara melakukan uji regresi logistik metode enter dengan menggunakan aplikasi SPSS. Misalkan kita akan melakukan uji regresi logistik sebuah penelitian yang berjudul Pengaruh Rokok dan Riwayat Kanker Terhadap Kanker Paru. Di mana variabel bebas ada 2 yaitu rokok dan riwayat kanker pada keluarga dan variabel terikatnya adalah kejadian kanker paru. Rokok terdiri dari 2 kategori yaitu "tidak merokok (kode 0)" dan "merokok (kode 1)." Riwayat terdiri dari 2 kategori yaitu "tidak ada riwayat (kode 0)" dan "ada riwayat (kode 1)." Kanker paru terdiri dari 2 kategori yaitu "tidak mengalami kanker (kode 0)" dan "mengalami kanker (kode 1)." Sebagai catatan: kategori yang terburuk diberi kode 1 dan kategori yang terbaik diberi kode 0.

Langsung saja anda buka aplikasi SPSS anda dan masukkan data sebagai berikut sebanyak 200 sampel. Bisa anda isikan sesuai dengan data dalam tabulasi Excel yang bisa di download DI SINI. Atau anda langsung saja download file kerja Dataset DI SINI dan outputnya DI SINI.

Dataset Regresi Logistik
Dataset Regresi Logistik

Jangan lupa pilih tab variable view:

Variable View Regresi Logistik
Variable View Regresi Logistik

Lalu klik values X1 dan isikan sebagai berikut:

Value Merokok
Value Merokok

Lalu klik values X2 dan isikan sebagai berikut:

Value Riwayat
Value Riwayat

Lalu klik values Y dan isikan sebagai berikut:

Value Kanker Paru
Value Kanker Paru

Kemudian pada menu, klik Analyze -> Regression -> Binary Logistic. Kemudian masukkan variabel terikat ke kotak dependent dan masukkan semua variabel bebas ke kotak Covariates.

Jendela Utama Regresi Logistik
Jendela Utama Regresi Logistik

Tekan tombol Save lalu centang Probabilities, Group membership, Unstandardized dan Studentized kemudian klik Continue.

Tombol Save Regresi Logistik
Tombol Save Regresi Logistik

Tekan tombol Options lalu centang Classification plots, Hosmer-lemeshow goodness-of-fit, Casewise listing residuals dan pilih Outliers outside dan isi dengan angka 2, Correlation of estimates, Iteration history, CI for exp(B) dan isi dengan 95.

Sedangkan nilai Maximum iteration biarkan tetp 20 dan nilai Classification Cutoff tetap 0.5. Nilai ini disebut dengan the cut value atau prior probability, yaitu peluang suatu observasi untuk masuk ke dalam salah satu kelompok sebelum karakteristik variabel penjelasnya diketahui. Apabila kita tidak mempunyai informasi tambahan tentang data kita, maka bisa langsung menggunakan nilai default yaitu 0,5. Jika tidak ada penelitian sebelumnya, dapat digunakan classification cutoff sebesar 0,5. Namun, jika ada penelitian lain yang telah meneliti maka bisa dinaikkan/diturunkan classification cutoff sesuai hasil penelitian.

Tombol Options Regresi Logistik
Tombol Options Regresi Logistik

Kemudian pada jendela utama, klik OK dan segera lihat Output anda.

Demikian cara melakukan uji regresi logistik metode simultan atau metode enter dengan SPSS. Untuk interprestasi hasil pengujian atau outputnya, bisa anda baca pada artikel selanjutnya yaitu Interprestasi Regresi Logistik dengan SPSS. Untuk mempelajari regresi logistik dalam pemilihan faktor paling dominan, anda bisa pelajari di artikel kami yang berjudul Regresi Logistik Ganda dalam SPSS.

Regresi Logistik

Regresi logistik adalah sebuah pendekatan untuk membuat model prediksi seperti halnya regresi linear atau yang biasa disebut dengan istilah Ordinary Least Squares (OLS) regression. Perbedaannya adalah pada regresi logistik, peneliti memprediksi variabel terikat yang berskala dikotomi. Skala dikotomi yang dimaksud adalah skala data nominal dengan dua kategori, misalnya: Ya dan Tidak, Baik dan Buruk atau Tinggi dan Rendah.

Apabila pada OLS mewajibkan syarat atau asumsi bahwa error varians (residual) terdistribusi secara normal. Sebaliknya, pada regresi logistik tidak dibutuhkan asumsi tersebut sebab pada regresi logistik mengikuti distribusi logistik.

Asumsi Regresi Logistik antara lain:

  1. Regresi logistik tidak membutuhkan hubungan linier antara variabel independen dengan variabel dependen.
  2. Variabel independen tidak memerlukan asumsi multivariate normality.
  3. Asumsi homokedastisitas tidak diperlukan
  4. Variabel bebas tidak perlu diubah ke dalam bentuk metrik (interval atau skala ratio).
  5. Variabel dependen harus bersifat dikotomi (2 kategori, misal: tinggi dan rendah atau baik dan buruk)
  6. Variabel independen tidak harus memiliki keragaman yang sama antar kelompok variabel
  7. Kategori dalam variabel independen harus terpisah satu sama lain atau bersifat eksklusif
  8. Sampel yang diperlukan dalam jumlah relatif besar, minimum dibutuhkan hingga 50 sampel data untuk sebuah variabel prediktor (independen).
  9. Regresi logistik dapat menyeleksi hubungan karena menggunakan pendekatan non linier log transformasi untuk memprediksi odds ratio. Odd dalam regresi logistik sering dinyatakan sebagai probabilitas.


Model persamaan aljabar layaknya OLS yang biasa kita gunakan adalah berikut: Y = B0 + B1X + e. Dimana e adalah error varians atau residual. Dengan regresi logistik, tidak menggunakan interpretasi yang sama seperti halnya persamaan regresi OLS. Model Persamaan yang terbentuk berbeda dengan persamaan OLS.

Berikut persamaannya:

Persamaan Regresi Logistik
Persamaan Regresi Logistik

Di mana:
Ln: Logaritma Natural.
B0 + B1X: Persamaan yang biasa dikenal dalam OLS.
Sedangkan P Aksen adalah probabilitas logistik yang didapat rumus sebagai berikut:

Probabilitas Regresi Logistik
Probabilitas Regresi Logistik

Di mana:
exp atau ditulis "e" adalah fungsi exponen.
(Perlu diingat bahwa exponen merupakan kebalikan dari logaritma natural. Sedangkan logaritma natural adalah bentuk logaritma namun dengan nilai konstanta 2,71828182845904 atau biasa dibulatkan menjadi 2,72).

Dengan model persamaan di atas, tentunya akan sangat sulit untuk menginterprestasikan koefisien regresinya. Oleh karena itu maka diperkenalkanlah istilah Odds Ratio atau yang biasa disingkat Exp(B) atau OR. Exp(B) merupakan exponen dari koefisien regresi. Jadi misalkan nilai slope dari regresi adalah sebesar 0,80, maka Exp(B) dapat diperkirakan sebagai berikut:


Besarnya nilai Exp(B) dapat diartikan sebagai berikut:
Misalnya nilai Exp (B) pengaruh rokok terhadap terhadap kanker paru adalah sebesar 2,23, maka disimpulkan bahwa orang yang merokok lebih beresiko untuk mengalami kanker paru dibadningkan dengan orang yang tidak merokok. Interprestasi ini diartikan apabila pengkodean kategori pada tiap variabel sebagai berikut:
  1. Variabel bebas adalah Rokok: Kode 0 untuk tidak merokok, kode 1 untuk merokok.
  2. Variabel terikat adalah kanker Paru: Kode 0 untuk tidak mengalami kanker paru, kode 1 untuk mengalami kanker paru.


Perbedaan lainnya yaitu pada regresi logistik tidak ada nilai "R Square" untuk mengukur besarnya pengaruh simultan beberapa variabel bebas terhadap variabel terikat. Dalam regresi logistik dikenal istilah Pseudo R Square, yaitu nilai R Square Semu yang maksudnya sama atau identik dengan R Square pada OLS. 

Jika pada OLS menggunakan uji F Anova untuk mengukur tingkat signifikansi dan seberapa baik model persamaan yang terbentuk, maka pada regresi logistik menggunakan Nilai Chi-Square. Perhitungan nilai Chi-Square ini berdasarkan perhitungan Maximum Likelihood.

Demikian penjelasan singkat tentang regresi logistik. Agar anda lebih mudah memahaminya, silahkan baca artikel kami tentang Regresi Logistik dengan SPSS.

Cochrane Orcutt dengan SPSS

Setelah kita mendapatkan koefisien autokorelasi Rho (ρ) yang dibahas pada artikel Cochrane Orcutt, maka selanjutnya adalah melakukan transformasi Cochrane Orcutt. Caranya pada menu SPSS klik Transform, Compute Variable, pada Target variable ketikkan nama variabel baru hasil transformasi yang akan dibentuk, yaitu Lag_X1 dan pada Numeric expression ketikkan formula X1-(0.925*Lag(X)). Di mana 0.925 adalah koefisien Rho (ρ). Ulangi langkah tersebut untuk variabel yang lain seperti gambar berikut:

Transformasi Lag_X1
Transformasi Lag_X1

Transformasi Lag_X2
Transformasi Lag_X2

Transformasi Lag_Y
Transformasi Lag_Y

Setelah melakukan transformasi, maka anda sudah mempunyai variabel baru hasil transformasi. Bisa anda lihat di dataview SPSS.

Selanjutnya anda lakukan regresi linear seperti biasa dengan menggunakan variabel baru hasil transformasi.

Regresi Cochrane Orcutt
Regresi Cochrane Orcutt

Jangan lupa untuk mendeteksi apakah ada peningkatan nilai Durbin Watson (DW), Klik tombol Statistics dan centang semuanya. Terutama Durbin Watson untuk deteksi autokorelasi dan Collinearity diagnostics untuk deteksi multikolinearitas.

Jika anda juga mau mendeteksi heteroskedastisitas dan normalitas, silahkan klik tombol plots dan masukkan SRESID ke Kotak Y dan masukkan ZPRED ke kotak X. Centang juga Histogram dan Normal probability plot.

Deteksi Normalitas dan Heteroskedastisitas
Deteksi Normalitas dan Heteroskedastisitas

Jika anda ingin mendeteksi normalitas pada residual secara lebih lanjut dan juga mendeteksi adanya outlier, maka klik tombol Save dan centang Residual, Studentized serta Mahalanobis.

Deteksi Normalitas dan Outler
Deteksi Normalitas dan Outler

Setelah anda tekan OK pada jendela utama, segera lihat output apakah ada perubahan angka DW sampai level yang signifikan menolak adanya autokorelasi:

Output Akhir Regresi Cochrane Orcutt
Output Akhir Regresi Cochrane Orcutt

Nilai DW di atas sebesar 0,587 di mana masih terlalu rendah dan belum mencapai level yang diinginkan. Oleh karenanya perlu upaya lebih lanjut agar bisa mencapai level yang signifikan, yaitu dengan cara iterasi. Iterasi di sini adalah mengulang langkah di atas dengan meregresikan residual yang di dapat dengan lag residualnya sampai didapatkan koefisien Rho yang dapat meningkatkan nilai DW secara signifikan. (Pelajari Durbin Watson Tabel)

Apabila anda menggunakan aplikasi SPSS, hal tersebut dapat menjadi sangat melelahkan sebab anda akan butuh waktu lama sebab iterasi bisa terjadi berulang-ulang kali. Untuk mengatasi hal tersebut anda bisa memanfaatkan aplikasi STATA di mana anda dapat dengan mudah melakukan iterasi tanpa memerlukan tenaga dan waktu yang banyak. Transformasi Cochrane Orcutt dengan STATA akan kami bahas selanjutnya dalam artikel Cochrane Orcutt dengan STATA.

Sebagai catatan penting, setelah anda melakukan regresi linear dengan transforasi Cochrane Orcutt, anda harus kembali mengecek semua asumsi klasik yang harus terpenuhi selayaknya pada Ordinary Least Square (OLS). Apabila asumsi normalitas tidak terpenuhi, maka anda bisa menggunakan regresi Newey-West Standar Error yang bisa anda lakukan dengan aplikasi STATA.

Pada regresi Cochrane Orcutt, karena anda melakukan transformasi Lag, maka anda akan kehilangan observasi pertama. Misal jumlah observasi anda awalnya 65 orang, maka dengan transformasi cochrane Orcutt, jumlah observasi anda menjadi 64. Untuk mengatasi hal tersebut agar anda tidak kehilangan informasi, maka anda bisa melakukan uji yang merupakan penyempurnaan dari Cochrane Orcutt di mana anda tidak akan kehilangan observasi pertama, yaitu uji Prais Winsten Regression. Uji tersebut juga dapat anda lakukan di aplikasi STATA. Uji Regresi Prais Winsten sebenarnya dapat anda lakukan juga dengan aplikasi SPSS. Caranya anda gunakan formula sebagai berikut untuk memberikan nilai pada observasi pertama:

Hitung Observasi Pertama Prais Winsten
Hitung Observasi Pertama Prais Winsten

Demikian artikel kami tentang upaya mengatasi masalah autokorelasi dengan transformasi Cochrane Orcutt menggunakan aplikasi SPSS. Silahkan baca artikel kami lainnya.

Cochrane Orcutt Mengatasi Autokorelasi

Adanya autokorelasi dalam regresi linear (Ordinary Least Squares) menyebabkan variansi sampel tidak dapat menggambarkan variansi populasi, model regresi yang dihasilkan tak dapat digunakan untuk menduga nilai variabel tak bebas dari nilai variabel-behas tertentu, koefisien regresi yang diperoleh kurang akurat. Masalah autokorelasi ini sering terjadi pada regresi linear dengan menggunakan data runtut waktu atau time-series.

Cara untuk mendeteksi terjadinya autokorelasi antara lain dengan menggunakan metode grafik, Durbin Watson, atau metode Lagrange Multiplier. Dari hasil pendeteksian tersebut, jika terdapat autokorelasi maka harus diperbaiki dengan cara transformasi.

Banyak cara dilakukan dalam transformasi untuk mengatasi masalah autokorelasi. Pemilihan cara transformasi tersebut dipengaruhi oleh "diketahui atau tidak diketahuinya koefisien autokorelasi (p)." Koefisien korelasi (p) disebut juga dengan istilah "Rho". Jika koefisien autokorelasi diketahui maka tinggal menyelesaikan dengan cara transformasi. Sedangkan jika tidak diketahui maka cara penyelesaiannya dengan terlebih dahulu menaksir koefisien autokorelasi dengan rnenggunakan berbagai metode, antara lain metode Durbin Watson, Theil-Nagar, atau Cochrane-Orcutt.

Setelah koefisien autokorelasi diketahui, maka langkah selanjutnya adalah melakukan transformasi. Kemudian dari data hasil transformasi, dilakukan pendeteksian ulang untuk mendeteksi ada atau tidaknya autokorelasi. Jika pada data hasil transformasi masih terdapat autokorelasi, maka dilakukan transformasi ulang sampai tidak terdapat autokorelasi. Setelah diperoleh data yang terhindar dan autokorelasi, langkah selanjutnya menerapkan dengan metode Ordinary Least Squares (OLS) untuk menentukan koefisien-koefisien regresinya.

Dalam kesempatan ini, kita akan fokus pada metode transformasi Cochrane Orcutt karena merupakan metode paling dasar dan mudah dipahami. Berikut bentuk persamaan Cochrane Orcutt:


Di mana:
Yt: variabel Dependen yang mengikuti waktu t
β: Koefisien Beta yang diestimasi
εt: Error term pada waktu t

Sedangkan:


Di mana:
ρ: Koefisien Rho
εt-1: residual sampel ke-i dikurangi residual sampel ke-i-1 (sampel sebelumnya)
Catatan: regresi untuk mendapatkan nilai εt di atas, tanpa mengikut sertakan konstanta.

Sehingga prosedur transformasi Cochrane Orcutt adalah sebagai berikut:



Untuk lebih jelasnya, langsung saja kita masuk ke tutorial tranformasi Cochrane Orcutt dengan SPSS.

Buka aplikasi SPSS anda, kemudian isikan data seperti di bawah ini! Untuk lebih mudahnya silahkan anda download saja file kerja dalam tutorial ini DI SINI.



Setelah data terisi dan nama variabel ditetapkan, langsung saja lakukan uji regresi OLS seperti biasanya dengan cara klik menu, analyze, regression, linear, kemudian masukkan variabel bebas ke dalam kotak independent(s) dan variabel terikat ke kotak variabel dependent


OLS
OLS

Selanjutnya klik Save dan centang Unstandardized pada Residuals

Save Unstandardized OLS
Unstandardized OLS

Jangan lupa tekan tombol Statistics dan centang semua, terutama Durbin Watson agar nilai Durbin Watson Hitung (DW) dapat muncul pada output SPSS.

Mengembalikan Nilai DW
Mengembalikan Nilai DW

Setelah anda proses langkah OLS di atas, maka pada output lihat nilai DW, yaitu sebesar 0,137 di mana sangat rendah dan menjauhi 2 dan lebih dekat dengan 0. Untuk lebih jelasnya tentang interprestasi nilai Durbin Watson, silahkan baca artikel kami tentang Durbin Watson Tabel.

Nilai DW
Nilai DW1

Setelah anda pastikan bahwa memang terjadi masalah autokorelasi, maka selanjutnya kita berpikir untuk melakukan transformasi cochrane orcutt. Untuk melakukan itu kita perlu mendapatkan nilai Rho. Untuk mendapatkannya, maka langkah pertama adalah menentukan error atau residual dari regresi linear dengan data asli, di mana langkah tersebut sudah dilakukan di atas, yaitu pada saat centang Unstandardized pada Residuals. Langkah tersebut mengembalikan hasil berupa Unstandardized Residual atau yang disebut juga dengan "Residual" atau "error."

Langkah berikutnya ialah melakukan transformasi Lag pada variabel residual yang baru di dapat di atas. Lag artinya mengembalikan variabel baru yang merupakan hasil pengurangan nilai dari sampel ke-i dikurangi sampel ke-i - 1. Sampel ke-i artinya sampel yang bersangkutan dan sampel ke-i-1 adalah sampel sebelumnya dari sampel yang bersangkutan. Caranya pada menu klik transform, compute variable, pada kotak target isikan dengan "Lag_e" dan pada kotak numeric expression isikan dengan formula: "Lag(Res_1)" di mana Res_1 adalah Residual.


Transformasi Lag Residual
Transformasi Lag Residual

Setelah itu lakukan regresi dengan variabel bebasnya "Lag_e" dan variabel terikatnya Res_1

Regresi Error
Regresi Error


Jangan lupa tekan tombol options dan hilangkan centang Include Constant. Sedangkan pada tombol statistics, jangan centang semua kecuali estimasi dan model fit.

Tanpa Constanta
Tanpa Constanta

Jika sudah anda proses maka lihat output anda dan baca pada tabel Coefficients.

Koefisien Rho
Koefisien Rho

Lihat bahwa nilai Beta sebesar 0,925. Nilai 0,925 itulah yang disebut dengan Koefisien Rho. Pada sampai tahap ini kita sudah mendapatkan nilai Rho dan selanjutnya yang harus dilakukan adalah melakukan transformasi Cochrane Orcutt.

Untuk proses transformasi Cochrane Orcutt sampai tahap uji autoregresi selanjutnya, akan kita bahas pada artikel selanjutnya, yaitu Cochrane Orcutt dengan SPSS.

Author Name

{picture#http://3.bp.blogspot.com/-jaIJXPn-Qyk/U07JuQCwfwI/AAAAAAAACnk/ZeyEwYwAJBU/s1600/MeImage.jpg} YOUR_PROFILE_DESCRIPTION {facebook#https://www.facebook.com/anwar.hidayat1} {twitter#https://twitter.com/anwar1hidayat} {google#https://plus.google.com/u/0/117218062214858385079} {pinterest#https://id.pinterest.com/anwar1hidayat} {youtube#https://www.youtube.com/channel/UCk1kA5x6I7wwWPhMZ_65dMg} {instagram#https://www.instagram.com/anwar.hidayat1}

Contact Form

Name

Email *

Message *

Powered by Blogger.