This is default featured slide 1 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 2 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 3 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 4 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 5 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

Tampilkan postingan dengan label MATERI EKONOMETRIKA 1 (ASUMSI KLASIK). Tampilkan semua postingan
Tampilkan postingan dengan label MATERI EKONOMETRIKA 1 (ASUMSI KLASIK). Tampilkan semua postingan

27 Agustus 2013

TABEL DURBIN WATSON

Dalam dunia statistik, Uji Durbin Watson adalah sebuah test yang digunakan untuk mendeteksi terjadinya autokorelasi pada nilai residual (prediction errors) dari sebuah analisis regresi. Yang dimaksud dengan Autokorelasi adalah "hubungan antara nilai-nilai yang dipisahkan satu sama lain dengan jeda waktu tertentu".
Uji ini dikemukakan oleh James Durbin dan Geoffrey Watson.
Pada saat anda melakukan deteksi Autokorelasi, anda tidak akan terlepas dengan tabel Durbin Watson. Tabel tersebut menjadi alat pembanding terhadap nilai Durbin Watson hitung.
Anda mungkin telah banyak membaca tentang tabel durbin watson, tetapi mungkin tidak semuanya memuaskan keinginan anda. Sebab sebagian besar tabel tersebut sangat terbatas, baik dalam jumlah sampel (n) atau jumlah variabel (k). Sebagian besar hanya sebatas n = 100 atau n = 200. Bagaimana jika jumlah sampel > 200?
Pada kesempatan ini, kami ingin berbagi sebuah Tabel Durbin Watson dengan jumlah sampel n = 2000 dan jumlah variabel (k) sebanyak k = 21.


Berikut di bawah ini adalah Tabel Durbin Watson lengkap dengan n = 6 - 2000, k = 2 - 21 dan batas kritis 5% (0,05), 2,5% (0,025), 1% (0,01).

Jika anda ingin mengunduhnya, klik link berikut:
DOWNLOAD DURBIN WATSON TABLE
(Jika Muncul jendela Adf.ly, tunggu 5 detik kemudian klik lewati)
Cara membaca Tabel Durbin Watson:
T: Jumlah sampel (n)
k: Jumlah variabel
dL: Batas Bawah Durbin Watson
dU: Batas Atas Durbin Watson
Contoh: Kita melakukan uji regresi linear berganda dengan 2 variabel independen dan 1 variabel dependen dengan jumlah sampel sebanyak 50, didapatkan hasil Durbin Watson Hitung sebesar d = 2,010.
Maka nilai T = 50, k = 3. Selanjutnya pada tabel di atas cari nilai dL dan dU pada T = 50 dan k = 3, yaitu nilai dL = 1,46246 dan dU = 1,62833. Pada contoh di atas, nilai d = 2,010, maka kita hitung terlebih dahulu nilai (4 - d) = 1,990.
Cara menentukan atau kriteria pengujian autokorelasi adalah sebagai berikut:
Deteksi Autokorelasi Positif:
Jika d < dL maka terdapat autokorelasi positif,
Jika d > dU maka tidak terdapat autokorelasi positif,
Jika dL < d < dU maka pengujian tidak meyakinkan atau tidak dapat disimpulkan.
Deteksi Autokorelasi Negatif:
Jika (4 - d) < dL maka terdapat autokorelasi negatif,
Jika (4 - d) > dU maka tidak terdapat autokorelasi negatif,
Jika dL < (4 - d) < dU maka pengujian tidak meyakinkan atau tidak dapat disimpulkan.

Berdasarkan contoh di atas:
Deteksi Autokorelasi Positif:
Jika 2,010 < 1,46246 maka terdapat autokorelasi positif---> Salah
Jika 2,010 > 1,62833 maka tidak terdapat autokorelasi positif---> Benar
Jika 1,46246 < 2,010 < 1,62833 maka pengujian tidak meyakinkan atau tidak dapat disimpulkan---> Salah

Deteksi Autokorelasi Negatif:
Jika 1,990 < 1,46246 maka terdapat autokorelasi negatif---> Salah
Jika 1,990 > 1,62833 maka tidak terdapat autokorelasi negatif---> Benar
Jika 1,46246 < 1,990 < 1,62833 maka pengujian tidak meyakinkan atau tidak dapat disimpulkan---> Salah


Maka dapat disimpulkan: pada analisis regresi tidak terdapat autokorelasi positif dan tidak terdapat autokorelasi negatif sehingga bisa disimpulkan sama sekali tidak terdapat autokorelasi.
Demikian artikel singkat kami tentang Durbin Watson Tabel. Bagaimana untuk mendapatkan nilai Durbin Watson dalam analisis regresi? Baca artikel kami selanjutnya tentang Durbin Watson dalam SPSS..

UJI HETEROSKEDASTISITAS DALAM EXCEL

Heteroskedastisitas adalah adanya ketidaksamaan varian dari residual untuk semua pengamatan pada model regresi.
Mengapa dilakukan uji heteroskedastitas? jawabannya adalah untuk mengetahui adanya penyimpangan dari syarat-syarat asumsi klasik pada model regresi, di mana dalam model regresi harus dipenuhi syarat tidak adanya heteroskedastisitas.
Bagaimana melakukan uji tersebut? Jawabannya adalah ada beberapa cara, antara lain:
  1. Uji Glejser
  2. Uji Park
  3. Uji Spearman
  4. Melihat Grafik
Apakah ke empat uji di atas dapat dilakukan dengan Excel? Jawabannya adalah "Ya."
Bagaimana cara melakukan Uji Heteroskedastisitas dengan Excel? Mari kita bahas satu persatu.
Dalam artikel kali ini kita akan bahas uji yang pertama, yaitu Uji Glejser.
Anggap kita punya sebuah model yang akan diuji, yaitu "Pengaruh nilai ujian Fisika, Biologi dan Matematika Terhadap Rata-rata Nilai SPMB.
Data seperti di bawah ini:

Fisika
Biologi
Matematika
SPMB
78
80
81
82
89
90
91
92
78
79
80
81
90
91
92
90
67
78
79
81
78
79
80
81
80
81
82
83
67
70
71
72
77
78
79
80
56
57
60
61
92
87
88
89
67
68
72
73
63
64
65
66
88
89
90
91
83
84
89
90
82
83
84
85
81
82
83
84
69
70
76
77
90
91
92
93
67
77
78
79
63
64
65
66
88
89
90
91
83
84
85
86
66
67
68
69
81
82
83
84
87
88
89
88
92
93
94
95
98
99
94
90
75
77
78
79
80
81
82
79
Buka Aplikasi Excel anda, dan jangan lupa bahwa "Aplikasi AddIns Data Analysis Toolpak" sudah diaktifkan. Jika belum pelajari caranya pada artikel kami yang berjudul "Mengaktifkan Analysis Toolpak di Excel 2007/2010".
Buat 4 variabel seperti tabel di atas, dan tempatkan pada cell "A1 s/d D31".
Masukkan data di atas dengan cara COPAS.
Klik Menu, Data, Data Analysis, maka akan muncul jendela "Data Analysis" kemudian pilih Regression.


Klik OK maka akan muncul jendela sebagai berikut:



Isi input Y Range dengan: "$D$2:$D$31" artinya merujuk pada variabel dependent (Y) pada kolom D1 s/d D31.

Isi input X Range dengan: "$A$2:$C$31" artinya merujuk pada variabel independent X1, X2 dan X3 pada kolom A1 s/d C31.
Isi Output Range: $F$1, artinya tempat output uji regresi akan muncul di cell F1.
Centang "RESIDUALS" artinya kita ingin mendapatkan nilai residual. Mengapa? Uji Glejser dengan menggunakan metode meregresikan variabel independen dengan nilai Absolut Residualnya. Untuk mendapatkan nilai Absolut Residual kita harus terlebih dahulu mendapatkan nilai Residualnya.
Klik OK.
Maka akan muncul output pada cell F1 seperti di bawah ini: Perhatikan pada cell F26 s/d H56. Ada variabel baru yang bernama "Residuals".
Pada Cell I25 ketikkan label "Absolut Residual".
Pada Cell I26 ketikkan Rumus: "=ABS(H26)" dan kopi pastekan hingga cell I56. Maka kita akan dapatkan nilai "ABSOLUT RESIDUAL". Absoult Residual artinya nilai Absolut dari residual yaitu yang berarti menghilangkan nilai negatif dari residual.
Pada menu klik Data, Data Analysis dan Pilih Regresi seperti langkah Regression sebelumnya, tetapi ubah Input Y Range dengan Rumus: "$I$26:$I$56" artinya kita akan meregresikan semua variabel independen dengan nilai Absolut Residuals". Dan ubah Output Range ke: "$P$1" artinya output akan tampil dimulai dari cell P1.
Lalu klik Continue dan lihat output mulai dari cell "P1"!
Lihat pada kolom "P-Value" yaitu pada Cell "T18 s/d T20". Nilai tersebut adalah nilai Signifikansi atau P Value uji regresi antara variabel independen dengan absolut residual. 
Nilainya jika dibulatkan 3 digit: 
X Variable 1: 0,449. X Variable 2: 0,962. X variable 3: 0,981. (Bandingkan hasil ini dengan hasil pada uji Glejser pada artikel sebelumnya dengan menggunakan SPSS, maka hasilnya akan sama, berarti cara ini telah benar).
Ketiga nilai di atas semuanya nilainya di atas 0,05 yang berati tidak ada gejala heteroskedastisitas atau H0 diterima.

NORMALITAS PADA REGRESI LINEAR BERGANDA

Banyak para peneliti baru terutama mahasiswa S1 kesulitan untuk melakukan uji regresi linear berganda dengan alasan datanya tidak berdistribusi normal. Kesulitan terjadi disebabkan mereka melakukan pengujian normalitas pada data per variabel. Tentunya itu sangat sulit sebab sebenarnya untuk regresi linear berganda, aumsi normalitas tidak pada per variabel, melainkan pada residual.
Jadi seharusnya asumsi normalitas akan mudah dicapai apabila kita mengikuti aturan yang benar, yaitu melakukan pengujian normalitas pada residual. Apabila tidak normal, maka dengan transformasi biasanya residual berubah menjadi normal. Apabila gagal kita bisa membuang outlier atau menambah sample.
Kesimpulannya:
Uji Normalitas pada regresi linear berganda dilakukan pada residual, bukan pada data per variabel.
Di sini kita akan melakukan uji normalitas residual pada uji regresi linear berganda. Ada 2 cara, yaitu:
1. Include Regresi Linear Berganda
2. Metode Explore Setelah Regresi Linear Berganda
Berikut cara pertama:
Masukkan data variabel-variabel independen (x) dan variabel dependen (y)
Pada menu, klik Analyze, Regression, Linear.
Masukkan variabel dependen pada kotak Dependent dan variabel independen pada kotak Independent(s)
Klik Tombol Statistics
Centang Semua (ini tidak digunakan pada uji normalitas residual, tetapi untuk menguji asumsi yang lain, yaitu Durbin Watson untuk auto korelasi, Collinearity diagnostics dan covariance Matrix untuk Multikolinearitas dan  yang lainnya untuk kebutuhan lain dalam memenuhi tujuan penelitian)
Klik Tombol Continue
Klik Tombol Plot, centang Histogram dan Normal Probability plot. Sedangkan pada kotak Y, masukkan SRESID dan pada kotak X masukkan ZPRED. Pada kotak X dan Y ini nanti digunakan untuk uji heteroskedastisitas.
Klik Tombol Continue
Klik Tombol Save dan kemudian centang Unstandardized, hal ini digunakan pada normalitas regresi linear berganda dengan pendekatan explore pada residual.
Klik Tombol Continue kemudian OK.
Lihat hasilnya!
Pada output SPSS, lihat diagram Histogram: jika membentuk lengkung kurve normal maka residual dinyatakan normal dan asumsi normalitas terpenuhi
Lihat pula diagram Normal P-P Plot, dikatakan memenuhi asumsi normalitas jika diagram menunjukkan plot-plot mengikuti alur garis lurus.
Ke-2 grafik di atas dapat anda gunakan untuk mengetahui normalitas residual pada uji regresi linear berganda, tetapi karena menggunakan grafik, interprestasi tiap orang dapat berbeda karena unsur subjektifitas, maka anda dapat menggunakan metode ke-2 nantinya di mana anda dapat menggunakan pendekatan teori untuk mengetahui normalitas, yaitu dengan menggunakan uji Kolmogorov Smirnov dengan Koreksi Lilliefors dan uji Shapiro Wilk.
Demikian penjelasan pada metode yang pertama, yaitu include dengan uji regresi linear berganda. Untuk metode ke-2 yaitu metode explore akan dijelaskan pada artikel berikutnya:
Uji Normalitas Pada Regresi Linear Berganda Dengan Pendekatan Teori.

26 Agustus 2013

UJI ASUMSI KLASIK (TEORI)

Teori Uji Asumsi Klasik dapat dilihat disini

24 April 2013

TEORI UJI ASUMSI KLASIK


Uji asumsi klasik merupakan terjemahan dari clasical linear regression model (CLRM) yang merupakan asumsi yang diperlukan dalam analisis regresi linear dengan ordinary least square (OLS). Sebagai informasi, semua ini berkat kejeniusan seorang matematikawan Germany bernama Carl Friedrich Gauss.

CLRM juga sering disebut dengan The Gaussian Standard, yang sebenarnya terdiri dari 10 item. Akan tetapi, yang sering kita jumpai dalam berbagai penelitian, atau berbagai buku statistik terapan mungkin hanya 4 atau 5 saja. Mengapa? Berikut sedikit uraian tentang 10 item tersebut.
1.    Asumsi 1: Linear Regression Model.
Model regresi haruslah linear, meskipun bisa saja sebenarnya variabel terikat Y dengan variabel bebas X tidak linear. Istilah linear sebenarnya ada dua macam, yaitu linearitas pada variabel dan linearitas pada parameter. Yang disebut dengan linearitas pada variabel adalah jika digambarkan dalam grafik maka akan berbentuk garis lurus. Misalnya persamaan Y = a + bX. Seandainya persamaannya adalah Y = a + b X^2 maka disebut tidak linear, karena jika digambarkan dalam grafik tidak membentuk garis lurus. Atau secara umum dapat dikatakan jika X mempunyai pangkat 1. Sedangkan linearitas pada parameter adalah merujuk kepada koefisiennya yaitu b. Jadi persamaan Y = a + b X^2 dapat disebut linear jika koefisien b mempunyai pangkat 1. Asumsi yang diperlukan dalam regresi linear adalah linearitas pada parameter, bukan linearitas pada variabel.
2.    Asumsi 2: X values are fixed in repeated sampling.
Nilai variabel X diasumsikan stokastik atau dianggap tetap dalam sampel yang berulang. Misalnya ada 7 data yang akan dianalisis dengan regresi (ini hanya contoh saja, karena regresi dengan 7 data tampaknya terlalu sedikit).
Gaji (juta)        Pengeluaran (juta)
3                     2,5
3                     2
3                     3
4                     3
4                     2,5
5                     4,5
5                     4
Jadi misalnya ambil nilai tetap untuk X, yaitu gaji 3 juta maka sampel pertama mempunyai pengeluaran 2,5 juta. Lalu ambil lagi sampel kedua dengan gaji 3 juta maka pengeluarannya adalah 2 juta. Demikian seterusnya untuk sampel dengan gaji 4 juta dan 5 juta. Jadi nilai X dianggap tetap pada sampel yang berulang. (dalam regresi lanjut, dapat diasumsikan bahwa X tidak stokastik).
3.    Asumsi 3: Zero mean value of disturbance ui
Nilai Y hasil prediksi dengan model regresi tentunya mempunyai kesalahan atau tidak tepat sama dengan nilai Y pada data. Selisihnya sering disebut dengan disturbance dan sering disimbolkan dengan u. Nilai ini harus mempunyai rata-rata sama dengan 0 (eksak). Ketika kita telah mendaptkan garis lurus pada model, maka nilai Y yang sebenarnya bisa berada di atas atau di bawah garis lurus tersebut, akan tetapi jumlahnya akan seimbang sehingg rata-ratanya sama dengan 0.
4.    Asumsi 4: Homoscedasticity or equal variance of ui
Homo berarti sama atau equal, scedasticity berarti disperse atau scatter atau ada yang mengartikan sebaran. Jadi varians dari error atau disturbance haruslah sama pada masing-masing nilai X. Sebagai contoh, ada 3 orang dengan gaji 3 juta sehingga memberikan tiga buah error dan mempunyai varians. Varians ini harus sama (equal) dengan varians error pada nilai X yang lain misalnya 4 juta. Demikian seterusnya.
5.    Asumsi 5: No autocorrelation between the disturbances
Asumsi ini masih berkaitan dengan nilai error, yaitu bahwa untuk sembarang 2 buah nilai X, maka kedua error itu tidak berkorelasi (atau mempunyai korelasi 0). Misalnya error pada X sebesar 3 juta dengan Y sebesar 2,5 dengan error pada X sebesar 3 juta dengan Y sebesar 2 juta tidak berkorelasi. Pengertian lain adalah misalnya ada persamaan Y = a + b X + u dengan u adalah error. Jika ada korelasi antara u dengan u-1 (error sebelumnya) maka model akan gagal, karena Y pada model harusnya dipengaruhi oleh X saja, akan dipengaruhi oleh u. Demikian seterusnya.
6.    Asumsi 6: Zero covariance between ui and Xi
Artinya nilai variabel bebas (Xi) dengan error (ui) tidak berkorelasi. Diasumsikan bahwa Y adalah dipengaruhi oleh X dan u, sehingga X dan u harus tidak saling berkorelasi. Jika X dan u berkorelasi, maka tidak mungkin mencari pengaruh masing-masing terhadap Y. Jika X berkorelasi positif dengan u, maka jika X meningkat u juga meningkat, atau jika X menurun maka u juga menurun (juga sebaliknya jika berkorelasi negatif). Sehingga sulit untuk mengisolasi pengaruh X dan u terhadap Y. Asumsi ini sebenarnya akan terpenuhi secara otomatis jika X merupakan stokastik karena untuk X bernilai tetap, u akan berubah.
7.    Asumsi 7: The number of observations n must be greater than the number of parameters to be estimated
Asumsi ini sebenarnya tidak asing bagi matematika sederhana. Jika ada dua parameter yang akan dicari nilainya maka tentunya tidak mungkin diselesaikan dengan satu persamaan (observasi).
8.    Asumsi 8: Variability in X values
Harus ada variasi nilai dalam variabel X. Jika X nilainya sama untuk semua observasi maka tentunya tidak dapat diestimasi. Meskipun ini mudah dimengerti namun sering dilupakan.
9.    Asumsi 9: The regression model is correctly specified
Model regresi yang dibangun haruslah benar dalam arti sesuai dengan teori yang telah dikembangkan. Seperti telah dijelaskan bahwa statistik hanyalah untuk menguji teori atau fenomena tertentu. Jadi jika menggunakan variabel yang sembarangan (atau tidak berdasarkan teori tertentu) maka model regresi yang dihasilkan juga patut dipertanyakan.
10.    Asumsi 10: There is no perfect multicollinearity
Tidak ada hubungan linear yang tinggi antara variabel-variabel bebas dalam model regresi. Jadi asumsi ini tentunya tidak bisa diterapkan pada regresi dengan satu variabel bebas (regresi linear sederhana).
Setelah menyimak uraian di atas, mungkin ada beberapa pertanyaan yang spontan muncul dalam benak Anda. Misalnya, mengapa uji normalitas residual tidak ada? Tepat sekali, asumsi normalitas residual (bukan normalitas pada masing-masing variabel) memang diperlukan akan tetapi itu tidak termasuk dalam uji asumsi klasik. Gujarati (2004:93) menulis 'The assumption that the disturbances ui are normally distributed is not a part of the CLRM’. Jika Anda masih berargumen, bahwa di dalam berbagai penelitian, uji normalitas residual dimasukkan dalam uji asumsi klasik (CLRM). Kajian tentang normalitas dimasukkan dalam Classical Normal Linear Regression Model (CNLRM). Jadi masalah penempatannya mau di mana, kita tidak dapat berkomentar.
Jika Anda simak lebih lanjut, maka dari 10 asumsi dalam CLRM tidak semuanya perlu diuji karena secara otomatis telah dimasukkan dalam persamaan untuk mengestimasi nilai konstanta, koefisien atau errornya. Asumsi 2, 3, 6, 7, 8 dan 9 tidak perlu lagi dilakukan pengujian tersendiri. Asumsi 1 juga sering tidak dilakukan karena terkait dengan asumsi 9, yaitu bahwa model harus dispesifikasi dengan benar. Asumsi 4, 5 dan 10 yang memerlukan pengujian tersendiri ditambah dengan pengujian normalitas.