Berikut ini adalah pertanyaan dari laraputrikandar pada mata pelajaran Akuntansi untuk jenjang Sekolah Menengah Atas
Apa dampak pelanggaran asumsi-asumsi dalam regResi osl, jelaskan
Jawaban dan Penjelasan
Berikut ini adalah pilihan jawaban terbaik dari pertanyaan diatas.
MASALAH-MASALAH DALAM MODEL REGRESI LINIER
Pendahuluan
Analisis model regresi linier memerlukan dipenuhinya berbagai asumsi agar model dapat digunakan sebagai alat prediksi yang baik. Namun tidak jarang peneliti menghadapi masalah dalam modelnya. Berbagai masalah yang sering dijumpai dalam analisis regresi adalah Multikolineritas, Heteroskedastisitas dan Autokorelasi.
Multikolinearitas
Salah satu asumsi yang digunakan dalam metode OLS adalah tidak ada hubungan linier antara variabel independen. Adanya hubungan antara variabel independen dalam satu regresi disebut dengan multikolinearitas. Multikolinearitas terjadi hanya pada persamaan regresi berganda.
Ada kolinieritas antara X1 dan X2: X1 = γ X2 atau X2 = γ -1 X1
X1 = X2 + X3 terjadi perfect multicollinearity
X2 = 4X1 (perfect multicollinearity)
X3 = 4X1 + bilangan random (tidak perfect multicollinearity)
Jika dua variabel independen atau lebih saling mempengaruhi, masih bisa menggunakan metode OLS untuk mengestimasi koefisien persamaan regresi dalam mendapatkan estimator yang BLUE. Estimator yang BLUE tidak memerlukan asumsi terbebas dari masalah Multikolinearitas. Estimator BLUE hanya berhubungan dengan asumsi tentang variabel gangguan. Ada dua asumsi penting tentang variabel gangguan yang mempengaruhi sifat dari estimator yang BLUE.
1. Varian dari variabel gangguan adalah tetap atau konstan (homoskedastisitas)
2. TidaK adanya korelasi atau hubungan antara variable gangguan satu observasi dengan variable gangguan observasi yang lain atau sering disebut tidak ada
masalah autokorelasi
Jika variabel gangguan tidak memenuhi kedua asumsi variabel gangguan tersebut
maka estimator yang kita dapatkan dalam metode OLS tidak lagi mengandung sifat BLUE.
Adanya Multikolinearitas masih menghasilkan estimator yang BLUE, tetapi menyebabkan suatu model mempunyai varian yang besar
Sifat- sifat multikolinieritas secara statistik:
1. Sempurna => β tidak dapat ditentukan, β = ( XTX )-1 XTY
2. Tidak sempurna => β dapat ditentukan;
tetapi standard error-nya besar, 3 kurang tepat.
2
Tidak ada kolinieritas antara X1 dan X2: X1 = X2
atau X1 log X2
Akibat multikolinieritas:
1. Variansi besar (dan taksiran OLS)
2. Interval kepercayaan lebar (variansi besar SE besar Interval kepercayaan
lebar)
3. t rasio tidak signifikan,
2
4. R
tinggi tetapi tidak banyak variabel yang signifikan dari uji t.
Cara mengatasi kolinieritas:
1. Melihat informasi sejenis yang ada
Konsumsi = σ0 + σ1 Pendapatan + σ2 Kekayaan + u Misalnya : σ2 = 0,25 σ1
2. Tidak mengikutsertakan salah satu variabel yang kolinier
Dengan menghilangkan salah satu variabel yang kolinier dapat menghilangkan kolinieritas pada model. Akan tetapi, ada kalanya pembuangan salah satu variabel yang kolinier menimbulkan specification bias yaitu salah spesifikasi kalau variabel yang dibuang merupakan variabel yang sangat penting.
3. Mentransforinasikan variabel
Yt =β1 +β2X2t +β3X3t+ut
Yt-1 = β1 + β2X2t-1 + β3X3t-1 + ut-1
(Yt –Yt-1)=β2 (X2t –X2t-1)+β3 (X3t –X3t-1)+(ut –ut-1) Yt* = β2X2t* + β3X3t* + ut*
Pendahuluan
Analisis model regresi linier memerlukan dipenuhinya berbagai asumsi agar model dapat digunakan sebagai alat prediksi yang baik. Namun tidak jarang peneliti menghadapi masalah dalam modelnya. Berbagai masalah yang sering dijumpai dalam analisis regresi adalah Multikolineritas, Heteroskedastisitas dan Autokorelasi.
Multikolinearitas
Salah satu asumsi yang digunakan dalam metode OLS adalah tidak ada hubungan linier antara variabel independen. Adanya hubungan antara variabel independen dalam satu regresi disebut dengan multikolinearitas. Multikolinearitas terjadi hanya pada persamaan regresi berganda.
Ada kolinieritas antara X1 dan X2: X1 = γ X2 atau X2 = γ -1 X1
X1 = X2 + X3 terjadi perfect multicollinearity
X2 = 4X1 (perfect multicollinearity)
X3 = 4X1 + bilangan random (tidak perfect multicollinearity)
Jika dua variabel independen atau lebih saling mempengaruhi, masih bisa menggunakan metode OLS untuk mengestimasi koefisien persamaan regresi dalam mendapatkan estimator yang BLUE. Estimator yang BLUE tidak memerlukan asumsi terbebas dari masalah Multikolinearitas. Estimator BLUE hanya berhubungan dengan asumsi tentang variabel gangguan. Ada dua asumsi penting tentang variabel gangguan yang mempengaruhi sifat dari estimator yang BLUE.
1. Varian dari variabel gangguan adalah tetap atau konstan (homoskedastisitas)
2. TidaK adanya korelasi atau hubungan antara variable gangguan satu observasi dengan variable gangguan observasi yang lain atau sering disebut tidak ada
masalah autokorelasi
Jika variabel gangguan tidak memenuhi kedua asumsi variabel gangguan tersebut
maka estimator yang kita dapatkan dalam metode OLS tidak lagi mengandung sifat BLUE.
Adanya Multikolinearitas masih menghasilkan estimator yang BLUE, tetapi menyebabkan suatu model mempunyai varian yang besar
Sifat- sifat multikolinieritas secara statistik:
1. Sempurna => β tidak dapat ditentukan, β = ( XTX )-1 XTY
2. Tidak sempurna => β dapat ditentukan;
tetapi standard error-nya besar, 3 kurang tepat.
2
Tidak ada kolinieritas antara X1 dan X2: X1 = X2
atau X1 log X2
Akibat multikolinieritas:
1. Variansi besar (dan taksiran OLS)
2. Interval kepercayaan lebar (variansi besar SE besar Interval kepercayaan
lebar)
3. t rasio tidak signifikan,
2
4. R
tinggi tetapi tidak banyak variabel yang signifikan dari uji t.
Cara mengatasi kolinieritas:
1. Melihat informasi sejenis yang ada
Konsumsi = σ0 + σ1 Pendapatan + σ2 Kekayaan + u Misalnya : σ2 = 0,25 σ1
2. Tidak mengikutsertakan salah satu variabel yang kolinier
Dengan menghilangkan salah satu variabel yang kolinier dapat menghilangkan kolinieritas pada model. Akan tetapi, ada kalanya pembuangan salah satu variabel yang kolinier menimbulkan specification bias yaitu salah spesifikasi kalau variabel yang dibuang merupakan variabel yang sangat penting.
3. Mentransforinasikan variabel
Yt =β1 +β2X2t +β3X3t+ut
Yt-1 = β1 + β2X2t-1 + β3X3t-1 + ut-1
(Yt –Yt-1)=β2 (X2t –X2t-1)+β3 (X3t –X3t-1)+(ut –ut-1) Yt* = β2X2t* + β3X3t* + ut*
Semoga dengan pertanyaan yang sudah terjawab oleh awrayasmin dapat membantu memudahkan mengerjakan soal, tugas dan PR sekolah kalian.
Apabila terdapat kesalahan dalam mengerjakan soal, silahkan koreksi jawaban dengan mengirimkan email ke yomemimo.com melalui halaman Contact
Last Update: Sun, 28 Aug 22