TUGAS STATISKA 2 (M-13)
Nama : Shoka Wennas Umara
Kelas : 2EB11
NPM : 27216028
1. Apakah sebab-sebab Autokorelasi
2. Faktor-faktor yang dapat menyebabkan
timbulnya masalah Autokolerasi!
3. Apakah yang dimaksud pengujian
Autokolerasi?
4. Dalam uji Durbin-Watson (DW-Test).
Terdapat beberapa asumsi penting yang harus dipatuhi, Apakah itu?
5. Coba jelaskan apa yang dimaksud
Asumsi Klasik!
6. Sebutkan apa saja asumsi-asumsi yang
ditetapkan!
7. Coba jelaskan mengapa tidak semua
asumsi perlu lakukan pengujian!
8. Jelaskan apa yang dimaksud dengan
Autokolerasi!
9. Jelaskan kenapa Autokolerasi timbul!
10. Bagaimana cara mendeteksi masalah
Autokolerasi
11. Apa konsekuensi dari adanya masalah
Autokolerasi dalam Model?
12. Jelaskan apa yang dimaksud dengan
Heteroskidastisitas!
13.
Jelaskan kenapa Heteroskedastisitas timbul!
14.
Bagaimana
cara mendeteksi masalah Heteroskedastisitas?
15.
Apa
konsekuensi dari adanya masalah Heteroskedastisitas dalam model?
16.
Jelaskan
apa yang dimaksud dengan Multikolinfaritas!
17.
Jelaskan
kenapa Multikolinfaritas timbul!
18.
Bagaimana
cara mendeteksi masalah Multikolinfaritas?
19.
Apa
konsekuensi dari adanya masalah Multikolinearitas dalam model?
20.
Jelaskan
apa yang dimaksud dengan Normalitas!
21.
Jelaskan
kenapa Normalitas timbul!
22.
Bagaimana
cara mendeteksi masalah Normalitas?
23.
Apa
konsekuensi dari adanya masalah Normalitas dalam Model?
24.
Bagaimana
cara menangani jika data ternyatab tidak Normal?
Jawaban
1.
Penyebab
autokorelasi adalah sebagai berikut:
•
Inersia
Salah
satu ciri menonjol dari sebagian deretan waktu ekonomi adalah inersia atau
kelembaman. Seperti telah dikenal dengan baik, deretan waktu seperti GNP.
Indeks Harga, produksi, kesempatan kerja dan pengangguran menunjukkan pola
siklus. Dalam kasus-kasus tersebut observasi yang berurutan nampaknya saling
bergantungan.
•
Bias
spesisifikasi mengeluarkan variabel yang relevan dari model
•
Bias
spesifikasi karena bentuk fungsional yang tidak benar
•
Fenomena
Cobweb
Penawaran
banyak komoditi pertanian mencerminkan apa yang disebut “Fenomena Cobweb” di
mana penawaran bereaksi terhadap harga dengan keterlambatannya satu periode
waktu karena keputusan penawaran memerlukan waktu untuk penawarannya (periode
persiapan) jadi pada awal musim tanam tahun ini pertanian dipengaruhi oleh
harga yang terjadi tahun lalu.
•
Manipulasi
data
Dalam
analisis empiris, data kasar seringkali “dimanipulasikan”. Sebagai contoh,
dalam regresi daretan waktu yang melibatkan data kuartalan, data seperti itu
biasanya diperoleh dari data bulanan dengan hanya marata-ratakan 3 observasi 3
bulanan. Pemerataan-rataan ini meratakan fluktuasi dalam data bulanan dan
dengan sendirinya mengakibatkan pola sistematis dalam error sehingga
menyababkan autokorelasi.
2.
Terdapat
banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi,
beberap faktor tersebut antara lain:
•
Kesalahan
dalam pembentukan model, artinya, model yang digunakan untuk menganalisis
regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
•
Tidak
memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini
adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
•
Manipulasi
data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun data
tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang
tersedia, untuk dijadikan data bulanan melalui cara interpolasi atau
ekstrapolasi.
•
Menggunakan
data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data
tersebut tidak didukung oleh realita.
3.
Uji Autokorelasi adalah sebuah analisis
statistik yang dilakukan untuk mengetahui adakah korelasi variabel yang ada di
dalam model prediksi dengan perubahan waktu.
4.
Dalam
DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
•
Terdapat
intercept dalam model regresi.
•
Variabel
penjelasnya tidak random ( nonstochastics ).
•
Tidak
ada unsur lag dari variabel dependen di dalam model.
•
Tidak
ada data yang hilang.
•
υ
= ρυ + ε t t − 1 t
5.
Uji
asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada
analisis regresi linear berganda yang berbasis ordinary least square (OLS).
Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan
asumsi klasik, misalnya regresi logistik atau regresi ordinal. Demikian juga
tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear,
misalnya uji multikolinearitas tidak dilakukan pada analisis regresi linear sederhana
dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.
6.
Asumsi
1 : linear regresion Model. Model regresi merupakan hubungan linear dalam
parameter.
Asumsi 2 : Nilai X adalah tetap
dalam sampling yang diulang – ulang
Asumsi 3 : Variabel penggangu e
memiliki rata –rata nol
Asumsi 4 : Homoskedastisitas atau
variabel penggangu e memiliki variance yang sama sepanjang observasi dari
berbagai nilai X.
Asumsi 5 : Tidak ada autokorelasi
antara variabel e pada setiap nilai Xi dan ji
Asumsi 6 : Variabel X dan
disturbance e tidak berkorelasi.
Asumsi 7 : Jumlah observasi /
besar sample (n) harus lebih besar dari jumlah parameter yang diestimasi.
Asumsi 8 : Variabel X harus
memiliki variabilitas.
Asumsi 9 : Model regresi secara
benar telah terspesifikasi.
Asumsi 10 : Tidak ada
multikolinearitas antara variabel penjelas
7.
Karena
tidak semua data dapat diperlakukan dengan regresi, Jika data yang diregresi
tidak memenuhi asumsi-asumsi yang telah disebutkan (asumsi klasik), maka
regresi yang diterapkan akan menghasilkan estimasi yang bias.
8.
Uji Autokorelasi adalah sebuah analisis
statistik yang dilakukan untuk mengetahui adakah korelasi variabel yang ada di
dalam model prediksi dengan perubahan waktu. Oleh karena itu, apabila asumsi
autokorelasi terjadi pada sebuah model prediksi, maka nilai disturbance tidak
lagi berpasangan secara bebas, melainkan berpasangan secara autokorelasi.
9.
Masalah
autokorelasi sering timbul pada data runtut waktu (time series). Penyebab utama
autokorelasi adalah kesalahan spesifikasi, misalnya terabaikannya suatu
variabel penting atau bentuk fungsi yang tidak tepat. Berikut beberapa penyebab
munculnya autokorelasi dalam analisis regresi:
•
Adanya
kelembaman (inertia), yaitu data observasi pada periode sebelumnya dan periode
sekarang, kemungkinan besar akan mengandung saling ketergantungan
(independence).
•
Bisa
spesifikasi model kasus yang tidak dimasukkan. Hal ini disebabkan oleh tidak
dimasukkannya variabel yang menurut teori sangat penting peranannya dalam
menjelaskan variabel terikat (tak bebas). Bila hal ini terjadi, unsur
pengganggu (error term) akan merefleksikan suatu pola yang sistematis antara
sesama unsur pengganggu sehingga terjadi situasi otokorelasi diantara unsur
pengganggu.
•
Adanya
fenomena laba-laba (cobweb phenomenon), yaitu data yang diperoleh saat ini (X₁) dipengaruhi oleh data
sebelumnya (X₀) sehingga data setelah saat ini/data berikutnya(X₂) memiliki kecenderungan
dipengaruhi oleh data pendahulunya (X₀) sehingga data X₂ memiliki potensi lebih
rendah dari data X₁. Akibatnya error term tidak lagi bersifat acak
(random), tetapi mengikuti pola sarang laba-laba.
•
Manipulasi
data (manipulation of data). Dalam analisis empiris terutama data time series
sering kali terjadi manipulasi data, hal ini terjadi data yang diinginkan tidak
tersedia. Adanya interpolasi atau manipulasi data jelas akan menimbulkan suatu
pola fluktuasi yang tersembunyi yng mengakibatkan munculnya pola sistematis
dalam unsur penggangu dan akhirnya akan menimbulkan masalah autokorelasi.
•
Adanya
kelembaman waktu (time lags). Dalam regresi data time series, pengaruh
psikologis, teknis dan kelembagaan. Jika unsur lag diabaikan dari suatu mdel
yang dibentuk, maka error term yang dihasilkan akan mencerminkan pola
sistematis sebagai akibat pengaruh variabel terikat pada periode sebelumnya
atau periode sekarang.
10. Cara mendeteksi
autokeralasi dengan metode grafik, uji Durbin Watson, uji Run, dan uji
Breusch-Godfrey (BG)/Langrange Multiplier (LM).
11. Konsekuensinya antara
lain:
•
Estimator
yang dihasilkan masih unbiased, konsisten, dan asymptotical normally
distributed. Tetapi tidak lagi efisien->varians tidak minimum (tidak BLUE).
•
Estimasi
standard error dan varian koefisien regresi yang didapat akan ‘underestimate’.
•
Pemerikasaan
terhadap residualnya akan menemui permasalahan.
•
Autokorelasi
yang kuat dapat pula menyebabkan dua variabel yang tidak berhubungan menjadi
berhubungan. Biasa disebut spourious regression. Hal ini terlihat dari R2.
12. Uji
Heteroskedastisitas adalah
uji yang menilai apakah ada ketidaksamaan varian dari residual untuk semua
pengamatan pada model regresi linear. Uji ini merupakan salah satu dari uji
asumsi klasik yang harus dilakukan pada regresi linear. Apabila asumsi
heteroskedastisitas tidak terpenuhi, maka model regresi dinyatakan tidak valid
sebagai alat peramalan.
13. Heteroskedastisitas timbul
apabila kesalahan atau residual dari model yang diamati tidak memiliki varians
yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112). Padahal
rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e,
diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama).
Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak
homoskedastik atau mengalamiheteroskedastisitas (Setiaji, 2004: 17).
14. Untuk mendeteksi ada
tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji
grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte
menggunakan Lagrange Multiplier (Setiaji, 2004: 18)21. Pengujian
heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan
membandingkan sebaran antara nilai prediksi variabel terikat dengan
residualnya, yang output pendeteksiannya akan tertera berupa sebaran data padascatter
plot. Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara
melakukan regresi atas residual, dengan model yang dapat dituliskan e2 = a +
By2 + u. Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi dikalikan
dengan jumlah sampel (R2 x N). Hasil perkalian ini kemudian dibandingkan dengan
nilai chi-square (x2) pada derajat kesalahan tertentu.
15. Analisis regresi linier
yang berupa variance residual yang sama, menunjukkan bahwa standar error (Sb)
masing-masing observasi tidak mengalami perubahan, sehingga Sb nya tidak
bias., Jika asumsi ini tidak
terpenuhi, sehinggavariance residualnya berubah-ubah sesuai perubahan
observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi
akan menjadi bias. Karena nilai t dihasilkan dari hasil bagi antara b dengan
Sb. Jika nilai Sb mengecil, maka nilai t cenderung membesar.Nilai t yang
seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan.
Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
16. Multikolinieritas
adalah
suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di
antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan
hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear,
dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel
penjelas hanya mempunyai sedikit sifat-sifat yang sama.
17. a. Kesalahan teoritis dalam pembentukan model
fungsi regresi yang dipergunakan/ memasukkan variabel bebas yang hampir sama,
bahkan sama.
b.
Terlampau
kecilnya jumlah pengamatan yang akan dianalisis dengan model regresi
18. Ada beberapa metode
deteksi multikolinearitas, antara lain:
a.
Kolinearitas
seringkali diduga jika R2 cukup tinggi (antara 0,7-1) dan jika koefisien korelasi
sederhana (korelasi derajat nol) juga tinggi, tetapi tak satu pun/ sedikit
sekali koefisien regresi parsial yang signifikan secara individu. Di pihak
lain, uji F menolak H0 yang mengatakan bahwa secara stimulan seluruh koefisien
regresi parsialnya adalah nol.
b.
Meskipun
korelasi derajat nol yang tinggi mungkin mengusulkan kolinearitas, tidak perlu
bahwa mereka tinggi berarti mempunyai kolinearitas dalam kasus spesifik. Untuk
meletakkan persoalan agar secara teknik, korelasi derajat nol yang tinggi merupakan
kondisi yang cukup tapi tidak perlau adanya kolinearitas karena hal ini dapat
terjadi meskipun melalui korelasi derajat nol atau sederhana relaif rendah.
c.
Untuk
mengetahui ada tidaknya kolinearitas ganda dalam model regresi linear berganda,
tidak hanya melihat koefisien korelasi sederhana, tapi juga koefisien korelasi
parsial.
d.
Karena
multikolinearitas timbul karena satu atau lebih variabel yang menjelaskan
merupakan kombinasi linear yang pasti atau mendekati pasti dari variabel yang
menjelaskan lainnya, satu cara untuk mengetahui variabel X yang mana
berhubungan dengan variabel X lainnya adalah dengan meregresi tiap Xi atas sisa
variabel X dan menghitung R2 yang cocok, yang bisa disebut .
19. a. Walaupun bersifat
BLUE, estimator OLS yang didapatkan memiliki varians dan kovarians yang besar,
sehingga estimasi yang tepat sulit dilakukan.
b.
Rentang
kepercayaan (confidence interval) menjadi besar.
c.
Uji
t untuk satu atau beberapa koefisien regresi cenderung untuk tidak signifikan.
d.
Walaupun
banyak koefisien yang tidak signifikan (dalam uji-t), akan tetapi nilai
koefisien determinasi (R2) biasanya sangat tinggi.
e.
Estimator
OLS dan standart errornya menjadi sangat sensitif dengan adanya perubahan kecil
pada data.
20. Uji
Normalitas adalah sebuah uji yang dilakukan dengan tujuan untuk menilai
sebaran data pada sebuah kelompok data atau variabel, apakah sebaran data
tersebut berdistribusi normal ataukah tidak. Uji Normalitas berguna untuk
menentukan data yang telah dikumpulkan berdistribusi normal atau diambil dari
populasi normal.
21. Sebenarnya istilah
“normalitas” dalam statistik itu biasa digunakan untuk menjelaskan jenis
distribusi dari sebuah data. Suatu data memiliki kecenderungan terhadap suatu
jenis distribusi, seperti : distribusi binomial, hypergeometri, poisson, normal,
weilbul, dll. Jenis distribusi data dapat ditentukan dari karakteristik data
itu sendiri, dapat pula dilakukan pengujian apakah data tersebut memiliki
kecenderungan terhadap suatu distribusi (salah satunya distribusi normal).
22. Untuk masalah menguji
sebuah data terdistribusi normal atau tidak dapat menggunakan beberapa cara
(uji). Ada Uji Kolmogorov Smirnov (KS test), Jaque Berra Test, Anderson Darling
Test, dll. Uji normalitas (sebutan untuk
menguji apakah sebuah data terdistribusi normal atau tidak) biasanya dilakukan
sebagai persyaratan atas sebuah metode tertentu, misalnya dalam regresi linier
sebagai salah satu persyaratan asumsi klasik, penentuan apakah menggunakan
statistik parametrik nonparametrik, dll.
23. Konsekuensi dari adanya
masalah normalitas adalah pengujian normalitas ini berdamoak pada nilai t dan F
karena pengujian terthadap keduangan diturunkan dari asumsi bahwa data Y atau e
berdistribusi normal.
24. Cara menangani jika data
tersebut ternyata tidak normal diperlukan upaya untuk mengatasi seperti
memotong data out liers, memperbesar sampel atau melakukan transformasi data.