Sunday, July 15, 2018

TUGAS STATISKA 2 (M-13)


Nama : Shoka Wennas Umara
Kelas  : 2EB11
NPM  : 27216028


1.      Apakah sebab-sebab Autokorelasi

2.      Faktor-faktor yang dapat menyebabkan timbulnya masalah Autokolerasi!
3.      Apakah yang dimaksud pengujian Autokolerasi?
4.      Dalam uji Durbin-Watson (DW-Test). Terdapat beberapa asumsi penting yang harus dipatuhi, Apakah itu?
5.      Coba jelaskan apa yang dimaksud Asumsi Klasik!
6.      Sebutkan apa saja asumsi-asumsi yang ditetapkan!
7.      Coba jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!
8.      Jelaskan apa yang dimaksud dengan Autokolerasi!
9.      Jelaskan kenapa Autokolerasi timbul!
10.  Bagaimana cara mendeteksi masalah Autokolerasi
11.  Apa konsekuensi dari adanya masalah Autokolerasi dalam Model?
12.  Jelaskan apa yang dimaksud dengan Heteroskidastisitas!
13.  Jelaskan kenapa Heteroskedastisitas timbul!
14.  Bagaimana cara mendeteksi masalah Heteroskedastisitas?
15.  Apa konsekuensi dari adanya masalah Heteroskedastisitas dalam model?
16.  Jelaskan apa yang dimaksud dengan Multikolinfaritas!
17.  Jelaskan kenapa Multikolinfaritas timbul!
18.  Bagaimana cara mendeteksi masalah Multikolinfaritas?
19.  Apa konsekuensi dari adanya masalah Multikolinearitas dalam model?
20.  Jelaskan apa yang dimaksud dengan Normalitas!
21.  Jelaskan kenapa Normalitas timbul!
22.  Bagaimana cara mendeteksi masalah Normalitas?
23.  Apa konsekuensi dari adanya masalah Normalitas dalam Model?
24.  Bagaimana cara menangani jika data ternyatab tidak Normal?




Jawaban
1.      Penyebab autokorelasi adalah sebagai berikut:
        Inersia
Salah satu ciri menonjol dari sebagian deretan waktu ekonomi adalah inersia atau kelembaman. Seperti telah dikenal dengan baik, deretan waktu seperti GNP. Indeks Harga, produksi, kesempatan kerja dan pengangguran menunjukkan pola siklus. Dalam kasus-kasus tersebut observasi yang berurutan nampaknya saling bergantungan.
        Bias spesisifikasi mengeluarkan variabel yang relevan dari model
        Bias spesifikasi karena bentuk fungsional yang tidak benar
        Fenomena Cobweb
Penawaran banyak komoditi pertanian mencerminkan apa yang disebut “Fenomena Cobweb” di mana penawaran bereaksi terhadap harga dengan keterlambatannya satu periode waktu karena keputusan penawaran memerlukan waktu untuk penawarannya (periode persiapan) jadi pada awal musim tanam tahun ini pertanian dipengaruhi oleh harga yang terjadi tahun lalu.
        Manipulasi data
Dalam analisis empiris, data kasar seringkali “dimanipulasikan”. Sebagai contoh, dalam regresi daretan waktu yang melibatkan data kuartalan, data seperti itu biasanya diperoleh dari data bulanan dengan hanya marata-ratakan 3 observasi 3 bulanan. Pemerataan-rataan ini meratakan fluktuasi dalam data bulanan dan dengan sendirinya mengakibatkan pola sistematis dalam error sehingga menyababkan autokorelasi.
2.      Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi, beberap faktor tersebut antara lain:
        Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
        Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
        Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun data tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang tersedia, untuk dijadikan data bulanan melalui cara interpolasi atau ekstrapolasi.
        Menggunakan data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh realita.
3.      Uji Autokorelasi adalah sebuah analisis statistik yang dilakukan untuk mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu.
4.      Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
        Terdapat intercept dalam model regresi.
        Variabel penjelasnya tidak random ( nonstochastics ).
        Tidak ada unsur lag dari variabel dependen di dalam model.
        Tidak ada data yang hilang.
        υ = ρυ + ε t t − 1 t
5.       Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.
6.      Asumsi 1 : linear regresion Model. Model regresi merupakan hubungan linear dalam parameter.
Asumsi 2 : Nilai X adalah tetap dalam sampling yang diulang – ulang
Asumsi 3 : Variabel penggangu e memiliki rata –rata nol
Asumsi 4 : Homoskedastisitas atau variabel penggangu e memiliki variance yang sama sepanjang observasi dari berbagai nilai X.
Asumsi 5 : Tidak ada autokorelasi antara variabel e pada setiap nilai Xi dan ji
Asumsi 6 : Variabel X dan disturbance e tidak berkorelasi.
Asumsi 7 : Jumlah observasi / besar sample (n) harus lebih besar dari jumlah parameter yang diestimasi.
Asumsi 8 : Variabel X harus memiliki variabilitas.
Asumsi 9 : Model regresi secara benar telah terspesifikasi.
Asumsi 10 : Tidak ada multikolinearitas antara variabel penjelas
7.      Karena tidak semua data dapat diperlakukan dengan regresi, Jika data yang diregresi tidak memenuhi asumsi-asumsi yang telah disebutkan (asumsi klasik), maka regresi yang diterapkan akan menghasilkan estimasi yang bias.
8.      Uji Autokorelasi adalah sebuah analisis statistik yang dilakukan untuk mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu. Oleh karena itu, apabila asumsi autokorelasi terjadi pada sebuah model prediksi, maka nilai disturbance tidak lagi berpasangan secara bebas, melainkan berpasangan secara autokorelasi.
9.      Masalah autokorelasi sering timbul pada data runtut waktu (time series). Penyebab utama autokorelasi adalah kesalahan spesifikasi, misalnya terabaikannya suatu variabel penting atau bentuk fungsi yang tidak tepat. Berikut beberapa penyebab munculnya autokorelasi dalam analisis regresi:
        Adanya kelembaman (inertia), yaitu data observasi pada periode sebelumnya dan periode sekarang, kemungkinan besar akan mengandung saling ketergantungan (independence).
        Bisa spesifikasi model kasus yang tidak dimasukkan. Hal ini disebabkan oleh tidak dimasukkannya variabel yang menurut teori sangat penting peranannya dalam menjelaskan variabel terikat (tak bebas). Bila hal ini terjadi, unsur pengganggu (error term) akan merefleksikan suatu pola yang sistematis antara sesama unsur pengganggu sehingga terjadi situasi otokorelasi diantara unsur pengganggu.
        Adanya fenomena laba-laba (cobweb phenomenon), yaitu data yang diperoleh saat ini (X) dipengaruhi oleh data sebelumnya (X) sehingga data setelah saat ini/data berikutnya(X) memiliki kecenderungan dipengaruhi oleh data pendahulunya (X) sehingga data X memiliki potensi lebih rendah dari data X. Akibatnya error term tidak lagi bersifat acak (random), tetapi mengikuti pola sarang laba-laba.
        Manipulasi data (manipulation of data). Dalam analisis empiris terutama data time series sering kali terjadi manipulasi data, hal ini terjadi data yang diinginkan tidak tersedia. Adanya interpolasi atau manipulasi data jelas akan menimbulkan suatu pola fluktuasi yang tersembunyi yng mengakibatkan munculnya pola sistematis dalam unsur penggangu dan akhirnya akan menimbulkan masalah autokorelasi.
        Adanya kelembaman waktu (time lags). Dalam regresi data time series, pengaruh psikologis, teknis dan kelembagaan. Jika unsur lag diabaikan dari suatu mdel yang dibentuk, maka error term yang dihasilkan akan mencerminkan pola sistematis sebagai akibat pengaruh variabel terikat pada periode sebelumnya atau periode sekarang.
10.  Cara mendeteksi autokeralasi dengan metode grafik, uji Durbin Watson, uji Run, dan uji Breusch-Godfrey (BG)/Langrange Multiplier (LM).
11.  Konsekuensinya antara lain:
        Estimator yang dihasilkan masih unbiased, konsisten, dan asymptotical normally distributed. Tetapi tidak lagi efisien->varians tidak minimum (tidak BLUE).
        Estimasi standard error dan varian koefisien regresi yang didapat akan ‘underestimate’.
        Pemerikasaan terhadap residualnya akan menemui permasalahan.
        Autokorelasi yang kuat dapat pula menyebabkan dua variabel yang tidak berhubungan menjadi berhubungan. Biasa disebut spourious regression. Hal ini terlihat dari R2.
12.  Uji Heteroskedastisitas adalah uji yang menilai apakah ada ketidaksamaan varian dari residual untuk semua pengamatan pada model regresi linear. Uji ini merupakan salah satu dari uji asumsi klasik yang harus dilakukan pada regresi linear. Apabila asumsi heteroskedastisitas tidak terpenuhi, maka model regresi dinyatakan tidak valid sebagai alat peramalan.
13.  Heteroskedastisitas timbul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112). Padahal rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau mengalamiheteroskedastisitas (Setiaji, 2004: 17).
14.  Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji, 2004: 18)21. Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya, yang output pendeteksiannya akan tertera berupa sebaran data padascatter plot. Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara melakukan regresi atas residual, dengan model yang dapat dituliskan e2 = a + By2 + u. Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi dikalikan dengan jumlah sampel (R2 x N). Hasil perkalian ini kemudian dibandingkan dengan nilai chi-square (x2) pada derajat kesalahan tertentu.
15.  Analisis regresi linier yang berupa variance residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak mengalami perubahan, sehingga Sb nya tidak bias.,             Jika asumsi ini tidak terpenuhi, sehinggavariance residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil, maka nilai t cenderung membesar.Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
16.  Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama.
17.  a.   Kesalahan teoritis dalam pembentukan model fungsi regresi yang dipergunakan/ memasukkan variabel bebas yang hampir sama, bahkan sama.
b.      Terlampau kecilnya jumlah pengamatan yang akan dianalisis dengan model regresi
18.  Ada beberapa metode deteksi multikolinearitas, antara lain:
a.       Kolinearitas seringkali diduga jika R2 cukup tinggi (antara 0,7-1) dan jika koefisien korelasi sederhana (korelasi derajat nol) juga tinggi, tetapi tak satu pun/ sedikit sekali koefisien regresi parsial yang signifikan secara individu. Di pihak lain, uji F menolak H0 yang mengatakan bahwa secara stimulan seluruh koefisien regresi parsialnya adalah nol.
b.      Meskipun korelasi derajat nol yang tinggi mungkin mengusulkan kolinearitas, tidak perlu bahwa mereka tinggi berarti mempunyai kolinearitas dalam kasus spesifik. Untuk meletakkan persoalan agar secara teknik, korelasi derajat nol yang tinggi merupakan kondisi yang cukup tapi tidak perlau adanya kolinearitas karena hal ini dapat terjadi meskipun melalui korelasi derajat nol atau sederhana relaif rendah.
c.       Untuk mengetahui ada tidaknya kolinearitas ganda dalam model regresi linear berganda, tidak hanya melihat koefisien korelasi sederhana, tapi juga koefisien korelasi parsial.
d.      Karena multikolinearitas timbul karena satu atau lebih variabel yang menjelaskan merupakan kombinasi linear yang pasti atau mendekati pasti dari variabel yang menjelaskan lainnya, satu cara untuk mengetahui variabel X yang mana berhubungan dengan variabel X lainnya adalah dengan meregresi tiap Xi atas sisa variabel X dan menghitung R2 yang cocok, yang bisa disebut .
19.  a. Walaupun bersifat BLUE, estimator OLS yang didapatkan memiliki varians dan kovarians yang besar, sehingga estimasi yang tepat sulit dilakukan.
b.      Rentang kepercayaan (confidence interval) menjadi besar.
c.       Uji t untuk satu atau beberapa koefisien regresi cenderung untuk tidak signifikan.
d.      Walaupun banyak koefisien yang tidak signifikan (dalam uji-t), akan tetapi nilai koefisien determinasi (R2) biasanya sangat tinggi.
e.       Estimator OLS dan standart errornya menjadi sangat sensitif dengan adanya perubahan kecil pada data.
20.   Uji Normalitas adalah sebuah uji yang dilakukan dengan tujuan untuk menilai sebaran data pada sebuah kelompok data atau variabel, apakah sebaran data tersebut berdistribusi normal ataukah tidak. Uji Normalitas berguna untuk menentukan data yang telah dikumpulkan berdistribusi normal atau diambil dari populasi normal.
21.  Sebenarnya istilah “normalitas” dalam statistik itu biasa digunakan untuk menjelaskan jenis distribusi dari sebuah data. Suatu data memiliki kecenderungan terhadap suatu jenis distribusi, seperti : distribusi binomial, hypergeometri, poisson, normal, weilbul, dll. Jenis distribusi data dapat ditentukan dari karakteristik data itu sendiri, dapat pula dilakukan pengujian apakah data tersebut memiliki kecenderungan terhadap suatu distribusi (salah satunya distribusi normal).
22.  Untuk masalah menguji sebuah data terdistribusi normal atau tidak dapat menggunakan beberapa cara (uji). Ada Uji Kolmogorov Smirnov (KS test), Jaque Berra Test, Anderson Darling Test, dll. Uji normalitas  (sebutan untuk menguji apakah sebuah data terdistribusi normal atau tidak) biasanya dilakukan sebagai persyaratan atas sebuah metode tertentu, misalnya dalam regresi linier sebagai salah satu persyaratan asumsi klasik, penentuan apakah menggunakan statistik parametrik nonparametrik, dll.
23.  Konsekuensi dari adanya masalah normalitas adalah pengujian normalitas ini berdamoak pada nilai t dan F karena pengujian terthadap keduangan diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.
24.  Cara menangani jika data tersebut ternyata tidak normal diperlukan upaya untuk mengatasi seperti memotong data out liers, memperbesar sampel atau melakukan transformasi data.