EKONOMETRIKA
1.
RANGKUMAN !
BAB
V
UJI
ASUMSI KLASIK
Tidak
semua data dapat diperlakukan dengan regresi. Jika data yang diregresi tidak
memenuhi asumsi-asumsi yang telah disebutkan, maka regresi yang diterapkan akan
menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi
asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE,
yang merupakan singkatan dari: Best, Linear, Unbiased, Estimator. Best
dimaksudkan sebagai terbaik. Hasil regresi dikatakan Best apabila
garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari
sebaran data, menghasilkan error yang terkecil. Perlu diketahui bahwa error
itu sendiri adalah perbedaan antara nilai observasi dan nilai yang
diramalkan oleh garis regresi. Jika garis regresi telah Best dan
disertai pula oleh kondisi tidak bias (unbiased), maka estimator regresi
akan efisien. Linear mewakili linear dalam model, maupun linear dalam
parameter. Linear dalam model artinya model yang digunakan dalam analisis
regresi telah sesuai dengan kaidah model OLS dimana variabel-variabel
penduganya hanya berpangkat satu. Sedangkan linear dalam parameter menjelaskan
bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel. Secara
jelas bila diukur dengan nilai rata-rata. Unbiased atau tidak bias,
Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b
sama dengan nilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata
b tidak sama dengan b, maka selisihnya itu disebut dengan bias. Estimator yang
efisien dapat ditemukan apabila ketiga kondisi di atas telah tercapai. Karena
sifat estimator yang efisien merupakan hasil konklusi dari ketiga hal sebelumnya
itu.
Asumsi-asumsi
seperti yang telah dituliskan dalam bahasan OLS di depan, adalah asumsi yang dikembangkan
oleh Gauss dan Markov, yang kemudian teori tersebut terkenal dengan sebutan
Gauss-Markov Theorem. Serupa dengan asumsi-asumsi tersebut, Gujarati (1995)
merinci 10 asumsi yang menjadi syarat penerapan OLS.
Secara
teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga
yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas,
dan Tidak ada HeteroskedastisitasApabila seluruh asumsi klasik
tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best,
linear, unbias, efficient of estimation (BLUE).
A. Uji Autokorelasi
A.1. Pengertian autokorelasi
Autokorelasi
adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan
variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat
korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time
series) ataupun data kerat silang (cross section). Hanya saja masalah
autokorelasi lebih sering muncul pada data time series, karena
sifat data time series ini sendiri lekat dengan kontinyuitas dan adanya
sifat ketergantungan antar data. Sementara pada data cross section hal
itu kecil kemungkinan terjadi. Asumsi terbebasnya autokorelasi ditunjukkan oleh
nilai e yang mempunyai rata-rata nol, dan variannya konstan. Asumsi variance
yang tidak konstan menunjukkan adanya pengaruh perubahan nilai suatu observasi
berdampak pada observasi lain.
A.2.
Sebab-sebab Autokorelasi
Terdapat
banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi,
namun dalam pembahasan ini hanya mengungkapkan beberapa faktor saja antara
lain:
1. Kesalahan
dalam pembentukan model, artinya, model yang digunakan untuk menganalisis
regresi tidak didukung oleh teori-teori yang relevan dan
mendukung.
2. Tidak
memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini
adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
3. Manipulasi
data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun data
tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang
tersedia, untuk dijadikan data bulanan melalui cara interpolasi atau
ekstrapolasi.
4. Menggunakan
data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut
tidak didukung oleh realita.
A.3.
Akibat Autokorelasi
Uraian-uraian
di atas mungkin saja mengajak kita untuk bertanya tentang apa dampak dari
autokorelasi yang timbul. Pertanyaan seperti ini tentu saja merupakan sesuatu
yang wajar, karena kita tentu mempunyai pilihan apakah mengabaikan adanya
autokorelasi ataukah akan mengeliminasinya. Meskipun ada autokorelasi, nilai
parameter estimator (b1, b2,…,bn) model regresi tetap
linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi
nilai variance tidak minimum dan standard error (Sb1,
Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias
pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb).
Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
A.4.
Pengujian Autokorelasi
Pengujian
autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah
lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan
oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya
autokorelasi, antara lain melalui:
1.
Uji Durbin-Watson (DW Test).
Uji
Durbin-Watson yang secara popular digunakan untuk mendeteksi adanya serial
korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan
Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan
Durbin- Watson d statistic, yang dituliskan sebagai berikut:
atau dapat pula ditulis dalam rumus
sebagai berikut:
Dalam DW test
ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
·
Terdapat intercept dalam model
regresi.
·
Variabel penjelasnya tidak random (nonstochastics).
·
Tidak ada unsur lag dari variabel
dependen di dalam model.
·
Tidak ada data yang hilang.
Langkah-langkah
pengujian autokorelasi menggunakan uji Durbin Watson (DW test) dapat dimulai
dari menentukan hipotesis. Rumusan hipotesisnya (H0) biasanya menyatakan bahwa
dua ujungnya tidak ada serial autokorelasi baik positif maupun negatif.
2. Menggunakan metode LaGrange
Multiplier (LM).
LM sendiri
merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat
variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut
adalah data Lag dari variabel dependen. Dengan demikian model dalam LM menjadi
sebagai berikut:
Variabel Yt-1
merupakan variabel lag 1 dari Y.
Variabel Yt-2
merupakan variabel lag 2 dari Y.
Lag 1 dan Lag 2
variabel Y dimasukkan dalam model ini bertujuan untuk mengetahui pada lag berapa
problem otokorelasi muncul. Lag sendiri merupakan rentang waktu. Lag 1 menunjukkan
adanya kesenjangan waktu 1 periode, sedang lag 2 menunjukkan kesenjangan waktu
2 periode. Periodenya tergantung pada jenis data apakah data harian, bulanan, tahunan.
Lag 1 data harian berarti ada kesenjangan satu hari, lag 2 kesenjangan 2 hari dan
seterusnya.
B. Uji Normalitas
Tujuan
dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e)
memiliki distribusi normal atau tidak. Pengujian normalitas data dapat
dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja
pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum
tahapan regresi lebih efisien dalam waktu. Pengujian normalitas ini berdampak
pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi
bahwa data Y atau e berdistribusi normal.
Beberapa
cara dapat dilakukan untuk melakukan uji normalitas, antara lain:
1) Menggunakan
metode numerik yang membandingkan nilai statistik, yaitu antara nilai median
dengan nilai mean. Data dikatakan normal (simetris) jika perbandingan
antara mean dan median menghasilkan nilai yang kurang lebih sama.
Atau apabila nilai mean jika dikurangi nilai median menghasilkan
angka nol. Cara inidisebut ukuran tendensi sentral (Kuncoro,2001: 41).
2) Menggunakan
formula Jarque Bera (JB test), yang rumusnya tertera sebagai berikut:
dimana:
S = Skewness
(kemencengan) distribusi data
K= Kurtosis
(keruncingan) Skewness sendiri dapat dicari dari formula sebagai berikut:
Kurtosis dapat dicari dengan formula
sebagai berikut:
3) Mengamati
sebaran data, dengan melakukan hitungan-hitungan berapa prosentase data observasi
dan berada di area mana. Untuk menentukan posisi normal dari sebaran data, langkah
awal yang dilakukan adalah menghitung standar deviasi. Standar deviasi dapat
dicari melalui rumus sebagai berikut:
C. Uji Heteroskedastisitas
C.1. Pengertian Heteroskedastisitas
Sebagaimana
telah ditunjukkan dalam salah satu asumsi yang harus ditaati pada model regresi
linier,adalah residual harus homoskedastis, artinya, variance residual
harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang
lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah
heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan atau residual
dari model yang diamati tidak memiliki varians yang konstan dari satu observasi
ke observasi lainnya (Kuncoro, 2001: 112). Padahal rumus regresi diperoleh
dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan
memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi
varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau
mengalami heteroskedastisitas (Setiaji, 2004: 17)..
C.2. Konsekuensi Heteroskedastisitas
Munculnya
masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan
berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena
nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil,
maka nilai t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya
tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan.
Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t yang
seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan
dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
C.3.
Pendeteksian Heteroskedastisitas
Untuk
mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai
cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank
Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji,2004:
18).
D. Uji Multikolinieritas
D.1. Pengertian Multikolinearitas
Multikolinieritas
adalah suatu keadaan dimana terjadi korelasi linear yang”perfect” atau
eksak di antara variabel penjelas yang dimasukkan ke dalam model.Tingkat
kekuatan hubungan antar variabel penjelas dapat Ditrikotomikan lemah, tidak
berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila
masing-masing Variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama.
Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan
serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y,
maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna.
Sedangkan Tidak berklinear jika antara variabel penjelas tidak mempunyai sama
sekali kesamaan.
Sebagai gambaran
penjelas, dapat dilihat pada gambar berikut ini:
D.2. Konsekuensi Multikolinearitas
Pengujian
multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu
penelitian, karena apabila belum terbebas darimasalah multikolinearitas akan
menyebabkan nilai koefisienregresi (b) masing-masing variabel bebas dan nilai standar
error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian
nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
Logikanya adalah seperti ini, jika antara X1 dan X2 terjadi
kolinearitas sempurna sehingga data menunjukkan bahwa X1=2X2,
maka nilai b1 dan b2 akan tidak dapatditentukan hasilnya,
karena dari formula OLS sebagaimana dibahas terdahulu,
akan menghasilkan bilangan pembagian, 
sehingga nilai b1
hasilnya tidak menentu. Hal itu akan berdampak pula pada standar error Sb akan
menjadi sangat besar, yang tentu akan memperkecil nilai t.
D.3. Pendeteksian Multikolinearitas
Terdapat
beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix
korelasi dengan Pearson Correlation atau dengan Spearman’s Rho
Correlation, melakukan regresi partial dengan teknik auxilary regression,
atau dapat pula dilakukan dengan mengamati nilai variance inflation factor
(VIF). Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung
nilai korelasi antar variabel dengan menggunakan Spearman’s Rho Correlation
dapat dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114).
Sementara untuk
data interval atau nominal dapat dilakukan dengan Pearson Correlation.
Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap
memenuhi syarat untuk dilakukan. Pengujian multikolinearitas menggunakan
angka korelasi dimaksudkan untuk menentukan ada tidaknya multikolinearitas. Mengacu
pendapat Pindyk dan Rubinfeld22, yang mengatakan bahwa apabila korelasi antara
dua variabel bebas lebih tinggi dibanding korelasi salah satu atau kedua
variabel bebas tersebut dengan variabel terikat.
2.
Kesimpulan dari uraian bab diatas !
Uji Asumsi klasik adalah analisis
yang dilakukan untuk menilai apakah di dalam sebuah model regresi linear
Ordinary Least Square (OLS) terdapat masalah-masalah asumsi klasik. Secara
teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga
yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas,
dan Tidak ada HeteroskedastisitasApabila seluruh asumsi klasik
tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best,
linear, unbias, efficient of estimation (BLUE).
3.
Soal dan Jawaban !
a.
Coba jelaskan apa yang dimaksud dengan asumsi klasik!
Jawab
: Uji Asumsi klasik adalah analisis
yang dilakukan untuk menilai apakah di dalam sebuah model regresi linear
Ordinary Least Square (OLS) terdapat masalah-masalah asumsi klasik.
b.
Sebutkan apa saja asumsi-asumsi yang ditetapkan!
Jawab
: Secara teoretis model OLS akan menghasilkan
estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak
ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada
Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi
maka akan menghasilkan hasil regresi yang best, linear, unbias,
efficient of estimation (BLUE).
c.
Coba jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!
Jawab
: Tidak semua uji asumsi
klasik harus dilakukan pada analisis regresi linier, karena sebagian hanya
cukup diasumsikan saja, sedangkan sebagian yang lain dapat memerlukan test.
d.
Jelaskan apa yang dimaksud dengan autokorelasi!
Jawab
: Autokorelasi adalah keadaan dimana variabel
gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada
periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang
diteliti, baik itu data jenis runtut waktu (time series) ataupun data
kerat silang (cross section).
e.
Jelaskan kenapa autokorelasi timbul!
Jawab
: Terdapat banyak faktor-faktor yang dapat
menyebabkan timbulnya masalah autokorelasi, antara lain:
1. Kesalahan
dalam pembentukan model, artinya, model yang digunakan untuk menganalisis
regresi tidak didukung oleh teori-teori yang relevan dan
mendukung.
2. Tidak
memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini
adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
3. Manipulasi
data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun data
tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang
tersedia, untuk dijadikan data bulanan melalui cara interpolasi atau
ekstrapolasi.
4. Menggunakan data
yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data
tersebut tidak didukung oleh realita.
f.
Bagaimana cara mendeteksi masalah autokorelasi?
Jawab
:
1.
Uji Durbin-Watson (DW Test).
Uji
Durbin-Watson yang secara popular digunakan untuk mendeteksi adanya serial
korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan
Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan
Durbin- Watson d statistic, yang dituliskan sebagai berikut:
atau dapat pula ditulis dalam rumus
sebagai berikut:
Dalam DW test
ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
·
Terdapat intercept dalam model
regresi.
·
Variabel penjelasnya tidak random (nonstochastics).
·
Tidak ada unsur lag dari variabel
dependen di dalam model.
·
Tidak ada data yang hilang.
Langkah-langkah
pengujian autokorelasi menggunakan uji Durbin Watson (DW test) dapat dimulai
dari menentukan hipotesis. Rumusan hipotesisnya (H0) biasanya menyatakan bahwa
dua ujungnya tidak ada serial autokorelasi baik positif maupun negatif.
2. Menggunakan metode LaGrange
Multiplier (LM).
LM sendiri
merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat
variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut
adalah data Lag dari variabel dependen. Dengan demikian model dalam LM menjadi
sebagai berikut:
Variabel Yt-1
merupakan variabel lag 1 dari Y.
Variabel Yt-2
merupakan variabel lag 2 dari Y.
Lag 1 dan Lag 2
variabel Y dimasukkan dalam model ini bertujuan untuk mengetahui pada lag
berapa problem otokorelasi muncul. Lag sendiri merupakan rentang waktu. Lag 1
menunjukkan adanya kesenjangan waktu 1 periode, sedang lag 2 menunjukkan
kesenjangan waktu 2 periode. Periodenya tergantung pada jenis data apakah data
harian, bulanan, tahunan. Lag 1 data harian berarti ada kesenjangan satu hari,
lag 2 kesenjangan 2 hari dan seterusnya.
g.
Apa konsekuensi dari adanya masalah autokorelasi dalam model?
Jawab
:. Pertanyaan seperti ini tentu saja merupakan
sesuatu yang wajar, karena kita tentu mempunyai pilihan apakah mengabaikan
adanya autokorelasi ataukah akan mengeliminasinya. Meskipun ada autokorelasi,
nilai parameter estimator (b1, b2,…,bn) model regresi tetap
linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi
nilai variance tidak minimum dan standard error (Sb1,
Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias
pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb).
Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
h.
Jelaskan apa yang dimaksud dengan heteroskedastisitas!
Jawab
: Heteroskedastisitas muncul apabila kesalahan atau
residual dari model yang diamati tidak memiliki varians yang konstan dari satu
observasi ke observasi lainnya (Kuncoro, 2001: 112). Padahal rumus regresi
diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e,
diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama).
Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik
atau mengalami heteroskedastisitas (Setiaji, 2004: 17)..
i.
Jelaskan kenapa heteroskedastisitas timbul!
Jawab
: Masalah heteroskedastisitas lebih sering muncul
dalam data cross section dari pada data time series). Karena
dalam data cross section menunjukkan obyek yang berbeda dan waktu yang
berbeda pula. Antara obyek satu dengan yang lainnya tidak ada saling
keterkaitan, begitu pula dalam hal waktu. Sedangkan data time series,
antara observasi satu dengan yang lainnya saling mempunyai kaitan. Ada trend
yang cenderung sama. Sehingga variance residualnya juga cenderung sama.
Tidak seperti data cross section yang cenderung menghasilkan variance
residual yang berbeda pula.
j.
Bagaimana cara mendeteksi masalah heteroskedastisitas?
Jawab
: Untuk mendeteksi ada tidaknya heteroskedastisitas,
dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser,
uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange
Multiplier. Pengujian heteroskedastisitas menggunakan uji grafik, dapat
dilakukan dengan membandingkan sebaran antara nilai prediksi variabel terikat
dengan residualnya, yang output pendeteksiannya akan tertera berupa
sebaran data pada scatter plot. Dengan menggunakan alat bantu komputer
teknik ini sering dipilih, karena alasan kemudahan dan kesederhanaan cara
pengujian, juga tetap mempertimbangkan valid dan tidaknya hasil pengujian. Pengujian
heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara melakukan
regresi atas residual, dengan model yang dapat dituliskan e2 =
a + bYˆ 2 + u . Dari hasil regresi tersebut dihitung nilai
R2. Nilai R2 tadi dikalikan dengan jumlah sampel (R2 x N). Hasil perkalian ini
kemudian dibandingkan dengan nilai chi-square (x2) pada
derajat kesalahan tertentu. Dengan df=1 (ingat, karena hanya memiliki satu
variabel bebas). Jika R2 x N lebih besar dari chi-square (x2)
tabel, maka standar error mengalami heteroskedastisitas. Sebaliknya,
jika R2 x N lebih kecil dari chi-square (x2)
tabel, maka standar error telah bebas dari masalah heteroskedastisitas,
atau telah homoskedastis.
k.
Apa konsekuensi dari adanya masalah heteroskedastisitas dalam model?
Jawab
: Munculnya masalah heteroskedastisitas yang
mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F
yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi
antara b dengan Sb. Jika nilai Sb mengecil, maka nilai t cenderung membesar.
Hal ini akan berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi
karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar,
maka nilai t akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan
menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil
riset yang mengacaukan.
l.
Jelaskan apa yang dimaksud dengan multikolinearitas!
Jawab
: Multikolinieritas adalah suatu keadaan dimana
terjadi korelasi linear yang”perfect” atau eksak di antara variabel
penjelas yang dimasukkan ke dalam model.Tingkat kekuatan hubungan antar
variabel penjelas dapat Ditrikotomikan lemah, tidak berkolinear, dan sempurna.
m.
Jelaskan kenapa multikolinearitas timbul!
Jawab
: Penyebab terjadinya Multikolinieritas adalah
terdapat korelasi atau hubungan linieryang kuat diantara beberapa variabel
predictor yang dimasukkan kedalam model regresi. Seperti : variabel-variabel
ekonomi yang kebanyakan terkait sau dengan yang lain (intercorrelation)
n.
Bagaimana cara mendeteksi masalah multikolinearitas?
Jawab
: Terdapat beragam cara untuk menguji
multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson
Correlation atau dengan Spearman’s Rho Correlation, melakukan
regresi partial dengan teknik auxilary regression, atau dapat pula
dilakukan dengan mengamati nilai variance inflation factor (VIF).
Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi
antar variabel dengan menggunakan Spearman’s Rho Correlation dapat
dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114).
Sementara untuk
data interval atau nominal dapat dilakukan dengan Pearson Correlation.
Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap
memenuhi syarat untuk dilakukan. Pengujian multikolinearitas menggunakan
angka korelasi dimaksudkan untuk menentukan ada tidaknya multikolinearitas.
Mengacu pendapat Pindyk dan Rubinfeld22, yang mengatakan bahwa apabila korelasi
antara dua variabel bebas lebih tinggi dibanding korelasi salah satu atau kedua
variabel bebas tersebut dengan variabel terikat.
o.
Apa konsekuensi dari adanya masalah multikolinearitas dalam model?
Jawab
: Pengujian multikolinearitas merupakan tahapan
penting yang harus dilakukan dalam suatu penelitian, karena apabila belum
terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi
(b) masing-masing variabel bebas dan nilai standar error-nya (Sb)
cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga
akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
p.
Jelaskan apa yang dimaksud dengan normalitas!
Jawab
: Uji normalitas adalah
untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau
tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah
tahapan analisis regresi.
q.
Jelaskan kenapa normalitas timbul!
Jawab
: Penyebab terjadinya
kasus normalitas adalah :
1. Terdapat
data residual dari model regresi yang memiliki nilai data berada jauh dari
himpunan data atau data ekstrim(outliers), sehingga penyebaran datanya menjadi
non-Normal
2. Terdapat
kondisi alami dari data yang pada dasarnya tidak berdistribusi Normal,
berdistribusi lain, seperti : distribusi binormal, multinormal, eksponensial,
gamma, dll.
r.
Bagaimana cara mendeteksi masalah normalitas?
Jawab
: Beberapa cara dapat dilakukan untuk melakukan uji
normalitas, antara lain:
1) Menggunakan
metode numerik yang membandingkan nilai statistik, yaitu antara nilai median
dengan nilai mean. Data dikatakan normal (simetris) jika
perbandingan antara mean dan median menghasilkan nilai yang
kurang lebih sama. Atau apabila nilai mean jika dikurangi nilai median
menghasilkan angka nol. Cara inidisebut ukuran tendensi sentral
(Kuncoro,2001: 41).
2) Menggunakan
formula Jarque Bera (JB test), yang rumusnya tertera sebagai berikut:
dimana:
S = Skewness
(kemencengan) distribusi data
K= Kurtosis
(keruncingan) Skewness sendiri dapat dicari dari formula sebagai berikut:
Kurtosis dapat dicari dengan formula
sebagai berikut:
3) Mengamati
sebaran data, dengan melakukan hitungan-hitungan berapa prosentase data
observasi dan berada di area mana. Untuk menentukan posisi normal dari sebaran data,
langkah awal yang dilakukan adalah menghitung standar deviasi. Standar deviasi
dapat dicari melalui rumus sebagai berikut:
s.
Apa konsekuensi dari adanya masalah normalitas dalam model?
Jawab :
Dalam
pengujian normalitas mempunyai dua kemungkinan, yaitu data berdistribusi normal
atau tidak normal. Apabila data telah berdistribusi normal maka tidak ada
masalah karena uji t dan uji F dapat dilakukan (Kuncoro, 2001: 110). Apabila
data tidak normal, maka diperlukan upaya untuk mengatasi seperti: memotong data
yang out liers, memperbesar sampel, atau melakukan transformasi data.
t.
Bagaimana cara menangani jika data ternyata tidak normal?
Jawab
:
- Mengidentifikasi dan, jika mungkin, menentukan alasan data tidak normal dan mengatasinya. Karena ketika data tidak terdistribusi normal , penyebab non - normalitas harus ditentukan dan tindakan perbaikan yang tepat harus diambil
- Gunakan alat yang tidak memerlukan asumsi normalitas. Karena, beberapa alat statistik tidak memerlukan data terdistribusi normal
Komentar
Posting Komentar