Pengantar Ekonometrika
BAB V
ANALISIS REGRESI SEDERHANA
Oleh:
RANA YUSPITA
1305102010044
1305102010044
PROGRAM STUDI AGRIBISNIS
FAKULTAS PERTANIAN
UNIVERSITAS SYIAH KUALA
DARUSSALAM, BANDA ACEH
2015
BAB V
ANALISIS REGRESI SEDERHANA
Pada umumnya, ilmu ekonomi mempelajari hubungan-hubungan diantara variabel ekonomi. Jika diungkapkan dalam bahasa matematika, hubungan-hubungan tersebut digunakan untuk memprediksikan pengaru satu variabel terhadap variabel lainnya. Misalnya, diasumsikan bahwa penghasilan, harga-harga barang lain dan semua faktor lain yang mempengaruhi permintaan dianggap konstan, maka jumlah barang yang diminta (q) dapat disajikan sebagai fungsi dari harga barang (p). Bentuk fungsinya adalah: q = f(p). Begitu juga fungsi-fungsi lain seperti: fungsi penawaran: S = f(p) ; fungsi biaya: C = f(Q); fungsi kepuasan : U = f(q = jumlah yang dikonsumsi); fungsi produksi: Q = f(x1,x2, = jumlah input yang berbeda-beda); dan banyak lagi fungsi lainnya.
5.1. Hubungan Stokastik 1 dan Nir-stokastik
Hubungan antara x dan y yang berbentuk y = f(x) dikatakan “deterministik” pasti atau “nir-stokastik”, jika setiap nilai variabel bebas (x) terdapat satu nilai variabel terikat (y). Suatu hubungan antara x dan y dikatakan “stokastik”, jikan suatu nilai x tertentu terdapat distribusi probabilitas menyeluruh dari nilai y.
Contoh:
Permintaan akan suatu barang tertentu, diasumsikan, tergantung pada harga bbarang itu saja (faktor penentu lainnya dianggap konstan, atau ceteris paribus), dan bentuk fungsinya adalah linier.
q = f(p) = α + βp
Dengan data p dan q tertentu misalnya diperoleh α = 25 dan β = -2, sehingga persamaan permintaan itu menjadi:
q = 25 – 2p
5.2. Model Regresi Linier Sederhana
Bentuk paling sederhana dari hubungan stokastik antara dua variabel x dan y disebut “ model regresi linier”
Yi = α + βXi + Ui (i = 1 , ..., n)
Y disebut variabel terikan (dependent variable), X adalah variabel bebas (independent variabel) atau variabel penjelas (explanatory variable), U adalah variabel gangguan stokastik (stochastic disturbance), α dan β adalah parameter-parameter regresi.
Sifat stokastik dari model regresi mengandung arti bahwa setiap nilai x terdapat suatu distribusi probabilitas seluruh nilai y. Dengan kata lain, nilai y tidak dapat diprediksikan secar pasti. Ketidakpastian mengenai nilai y ini timbul, karena ada faktor stokastik u yang memberi sifat “random” pada y. Bagaimana penyisipan faktor u kedalam model dapat dibenarkan?
Dengan mengabaikan (untuk sementara) bahwa teori tersebut mungkin tidak benar, penyisipan faktor u tersebut adalah:
(a). Karena kesalahan dalam persamaan
(b). Karena kesalahan dalam pengukuran (kesalahan dalam variabel)
(c). Karena ketidaksempurnaan spesifikasi bentuk matematis model
(d). Karena agregasi
Asumsi-asumsi Model Regresi Linier:
Asumsi 1. Ui adalah sebuah variabel random riil dan memiliki distribusi normal.
Asumsi 2. Nilai rerata dari Ui setiap periode tertentu adalah nol.
E[Ui] = 0 (i=1,....,n).
Asumsi 3. Varian dari ui konstan setiap periode.
E[Ui2] = 2 adalah konstan)
Asumsi 4. Faktor gangguan dari pengamatan yang berbeda-beda (Ui ,Uj) tidak tergantung
(independent)
E[UiUj] = 0 (i ≠ j)
Asumsi ini dikenal sebagai “nir-otokorelasi”
Asumsi 5. Variabel-variabel penjelas atau bebas adala variabel nir-stokastik dan diukur tanpa
kesalahan: Ui tidak tergantung pada variabel penjelas.
E[UiUj]=0 Xi E[Uj]=0, untuk seluruh i,j=1,...., n
Keempat asumsi pertama berkaitan dengan distribusi U, sedangkan asumsi kelima berkaitan dengan variabel penjelas. Asumsi pertama dan kedua menyatakan bahwa nilai X, U adalah berdistribusi normal dengan rerata nol. Asumsi ketiga mengenai homoskedastisitas mengandung arti setiap distribusi U memiliki varian 2 yang sama, nilainya konstan, dan tidak diketahui. Asumsi tersebut menyatakan bahwa untuk seluruh nilai Xi (baik yang rendah maupun yang tinggi), varian dari distribusi Ui tetap sama. Jadi, asumsi 1 sampai 3 sepenuhnya merinci distribusi U. Asumsi keempat menunjukkan masing-masing pengamatan tidak saling tergantung (non-autoregressive). Selanjutnya, asumsi kelima yang berkaitan dengan variabel penjelas, menyatakan nilai-nilai Xi dapat dikontrol, dapat dipredisiksikan, dan kovarian antara U dan X adalah nol (artinya variabel penjelas tidak saling tergantung pada faktor gangguan).
Pengaruh asumsi pertama sampai ketiga teradap distribusi probabilitas dari variabel terikat Y dirangkum berikut ini:
(a) Dalam persamaan Yi = α + βXi + Ui: Yi merupakan fungsi dari Ui. Karena Ui diasumsikan berdistribusi normal maka Yi berdistribusi normal.
(b) Yi = α + βXi + Ui: Jadi: E[Yi] = E[α + βXi + Ui]
= α + βXi {karena E[Ui] = 0}
Oleh karena itu merata dari Yi atau E[Yi] ditentukan oleh ( α + βXi ).
(c) Var = E [Yi - ]2 = E [Yi – E[Yi]]2
= E [ α + βXi + Ui – (α + βXi)]2
= E [Ui]2
= 2 Karena E[Ui}2 = 2
Jadi varian Yi = 2
5.3 Penaksiran parameter-parameter regresi
Yang dimaksud penaksiran α dan β dengan metode kuadrat terkecil (OLS=Ordinary Least Squares) atau kuadrat terkecil klasik (CLS= Classical Least Squares) adalah menemukan nilai-nilai taksiran dan β yang meminimumkan jumlah kuadrat residu: ∑ei2
ei = Yi – ( + Xi)
Nilai-nilai α dan β yang meminimumkan jumlah kuadrat, diperoleh dengan menurunkan secara parsial (partial derivative) fungsi kuadrat residual, ∑ei2 dan menyamakan turunan ini dengan nol.
Atau
∑Yi = n + ∑Xi (5.1)
∑XiYi = ∑Yi + Xi2 (5.2)
Dari (5,1) diperoleh :
n = ∑Yi + ∑Xi
Subsitusikan nilai ke dalam (5.2):
∑XiYi = ( - ) ∑Xi + Xi2
∑XiYi = Y∑Xi – ∑Xi + Xi2
∑XiYi - Y∑Xi = (∑Xi2 - X∑Xi)
(5.4) dapat juga ditulis dengan cara yang berbeda
pembilang (5.4) adalah :
n∑XiYi - ∑Xi∑Yi = n∑XiYi - ∑Yi∑Xi – (∑XiYi - ∑XiYi)
= n∑XiYi - ∑Yi∑Xi - ∑Xi∑Yi - ∑Xi∑Yi
= n(∑XiYi - nX∑Yi - nY∑Xi + n2XY)
= n(∑(Xi – X) (Yi – Y)
Penyebut dari (5.4) adala :
n Xi2 - (∑Xi)2 = n Xi2 – 2(∑Xi) 2 + (∑Xi)2
= n Xi2 - 2∑Xi∑Xi + (∑Xi)2
= n Xi2 – 2nX∑Xi + n2X2
= n(∑Xi2 – 2X∑Xi + n X2)
= n∑(Xi – X)2
Maka
Sekarang dianggap (Xi – X) = xi; dan (Yi-Y) = yi
Maka :
5.4 Sifat-sifat Penaksir Kuadrat Terkecil
(a) Linier (Linearity)
(b) Unbiasedness
= ∑Ki (α + βXi + Ui)
= α∑Ki + β∑KiXi + ∑KiUi
(c) Varian Minimum dari dan
Sekarang arus dibuktikan dan memiliki varian sampel dibandingkan dengan penaksir-penaksir linier tidak blas lainnya. Untuk itu, pertama-tama akan dicari varian dan kemudian dibuktikan bahwa variannya minimum.
Var ( = E[( – β)2]
= E[(∑KiUi)2]
= E[K12U12 + K22U22 ... + Kn2Un2 + 2K1K2U1U2 + ... + 2Kn-1KnUn-1Un]
= E[K12U12 + K22U22 ... + Kn2Un2] + E[2k1K2U1U2 + ... + 2Kn-1KnUn-1Un]
= E[∑(Ki2Ui2)] + 2E[∑KiKjUiUj] i≠ j
= ∑Ki2E[Ui2] + 2∑KiKjE[UiUj] = ∑Ki2 {Karena E[UiUj] = 0)
Untuk membuktikan bahwa memiiliki varian minimum, perlu dibandingkan varian dengan varian beberapa penaksir β (Katakanlah β*) yang tidak bias.
Misalkan β* = ∑wiYi ; dimana konstanta wi ≠ ki, tetapi wi = ki + ci
Sehingga:
β * = ∑wi (α + βXi + Ui)
= α∑wi + β∑wiXi + ∑wiUi
Dan: E[β*] = α∑wi + β∑wiXi {karena E[Ui] = 0}
Karena β*, diasumsikan penaksir yang tidak bias, berarti pada persamaan di atas ∑wi = o dan ∑wiXi = 1
Tetapi: ∑wi = ∑(ki + ci) = ∑ki + ∑ci
Karena ∑ci = 0; ∑ki = ∑wi = 0
Maka:
∑wiXi =n∑(ki + ci)Xi = ∑kiXi + ∑ciXi
Karena ∑ciXi = o; ∑wiXi = 1; dan ∑kiXi = ∑kixi = 1
Juga:
∑cixi = ∑cixi + ∑ci = 0
Pentingnya Sifat BLU
(a) Linier. Sifat ini dibutuhkan untuk memudahkan peritungan dalam penaksiran
(b) Unbiasedness. Secara sendirian sifat ini tidak berguna.
(c) Best. Sifat varian terkecil secara sendirian tidak dibutuhkan, karena suatu taksiran memiliki varian nol, namun memiliki penyimpangan yang besar (enormous bias).
5.5 Penaksiran Maximum Likelihood
Ada dua al penting yang diamati dari hasil penurunan yaitu:
(a) Untuk membuktikan sifat BLU penaksir kuadrat terkecil, tidak semua asumsi klasik dipergunakan.
(b) Untuk membuktikan sifat-sifat BLU tidak perlu dibuat asumsi bentuk spesifik dari distribusi faktor-faktor gangguan.
Apabila asumsi distribusi normal variabel pengganggu, Uj, bersama-sama dengan asumsi lainnya digunakan untuk mendapatkan α* dan β*, timbul pertanyaan apakah α* dan β* sama dengan dan ? Selain itu adalah α* dan β* ini memiliki sifat-sifat BLU.
5.6 Distribusi Sampel Penaksir Kuadrat Terkecil
Karena penaksir-penaksir kuadrat terkecil merupakan kombinasi linier variabel-variabel normal Y1, Y2, Y3, ..., Yn tidak saling tergantung, maka dan juga berdistribusi normal, dengan sifat-sifat sebagai berikut:
(i) dan adalah penaksir-penaksir yang tidak bias, yaitu rerata masing-masing sama dengan nilai α dan β yang sebenarnya,
(ii) Varian dari setiap penaksir, diketahui.
Kedua sifat ini bisa dinyatakan dalam bentuk ringkas sebagai berikut:
Oleh karena varian parameter-parameter berhubungan langsung dengan varian-varian faktor-faktor gangguan, maka butir-butir berikut harus diperhatikan:
(a) Semakin besar nilai σ2, maka semakin besar pula varian dan . Dengan kata lain, semakin lebar penyebaran (dispersi) faktor-faktor gangguan sekitar garis regresi populasi, maka semakin lebar pula penyebaran nilai-nilai taksiran parameter regresi.
(b) merupakan penyebut pada rumus varian kedua penaksir tersebut. Ini berarti, semakin lebar penyebaran nilai-nilai variabel bebas (yaitu semakin besar ), semakin kecil varian dan varian . Jika = 0 atau mendekati nol (yaitu bila X1 = X2 = X3 = ... = Xn), maka kedua varian tersebut akan sangat besar.
(c) Varian adalah terkecil bila = 0 atau mendekati nol. [Perhatikan bahwa bila = 0, Var( /(n)].
5.7 Interval Keyakian dan Uji Hipotesis
Penyusunan interval keyakinan penting untuk memperoleh ketepatan dan . Untuk itu, semua informasi yang berhubungan dengan distribusi dan sudah dibahas. Dalam hal ini,
Zβ = dan Zα = Dimana Z ~ N(0,1)
σ adalah varian dari faktor gangguan yang tak teramati dan yang tidak diketahui. Jika penaksir yang tidak bias dari σ2 disubstitusikan ke dalam variabel normal standar Z, maka variabel yang dihasilkan adalah:
( ) ~ t dengan derajat bebas (n-2).
Dalam kasus
Z = , v2 = =
Sehingga,
t = .
t =
jadi, dengan mengubah bentuk variabel Z menjadi variabel t, varian faktor gangguan yang tidak diketahui (σ2) tidak muncul dalam rumus. Sehingga diperoleh formula untuk pengujian yang hanya tergantung pada pengamatan-pengamatan sampel dan nilai hipotesis dari α.
Oleh karena itu, 95% interval keyakinan untuk α adalah:
Dengan cara yang sama, pengujian atas β yaitu:
Z = , dan v2 =
Sehingga,
t = .
t =
Jadi: = t
Yang memberikan 95% interval keyakinan untuk β.
Variabel t yang diperoleh pada kasus α dan β penting dalam uji hipotesis yang berkaitan dengan parameter regresi. Salah satu hipotesis yang menarik adalah hipotesis tentang tidak adanya hubungan antara variabel bebas X dan variabel terikat Y dalam model regresi Y = α + Βx. Dengan kata lain, garis regresi populasi berupa garis horizontal. Sehingga, hipotesis nol mengenai tidak adanya hubungan antara X dan Y adalah:
H0 : β = 0
Dan hipotesis alternatifnya: Ha : β
5.8 Goodness Of Fit (R2)
Garis regresi adalah sebagai suatu keseluruhan dan diuji kebenaran letak taksirannya (goodness of fit).
Contoh:
Sebuh garis regresi sampel telah diperoleh dengan metode kuadrat terkecil. Gambar dibawah ini menunjukkan variasi (perubahan) Yi dalam dua komponen, yaitu *yang bisa dijelaskan* dan *yang tidak bisa dijelaskan*.
Dalam uraian sebelumya diketahui:
Yi = + ei
Rincian total variasi Y ini menunjukkan suatu derajat ketepatan (goodness of fit), dikenal sebagai “Koefisien Determinasi” dengan simbol R2.
R2 =
5.9 Pelaporan Hasil-hasil Analisis Regresi
Hasil-hasil regresi sebelumnya dilaporkan dalam bentuk yang konvensional. Sebenarnya tidak cukup bila hasil taksiran α dan β yang dilaporkan. Tetapi koefisien regresi bersama dengan kesalahan standar dan nilai R2 harus dilaporkan. Persamaan hasil taksiran disajikan dengan menempatkan kesalahan standar, dalam kurung dibawah masing-masing nilai taksiran parameter. Kemudian melengkapinya dengan pencantuman nilai R2 disebelah kanan persamaan regresi tersebut.
Contoh : Yi = 92,25 + 5,54 Xi R2 = 0,934
(4,39) (0,347)
5.10. Aplikasi (Penerapan)
Contoh:
Tentukan hasil-hasil regresi dari data 20 pasang pengamatan atas X (variabel bebas) dan Y (variabel terikat) berikut ini:
ΣXi = 228, ΣYi = 3121, ΣXiYi = 38927, ΣXi2 = 3204,
Σxiyi = 3347,60, Σxi2 = 604,80, Σyi = 19387.
Jawaban:
(i) Penaksiran dan
ΣXi = 228; n = 20; sehingga = 11,4
ΣYi = 3121; n = 20; sehingga = 156,05
(ii) Penaksiran Varian
Var ( = dan Var ( =
Oleh karena σ2 tidak diketahui, maka dapat disubstitusikan σ*2 penaksir yang tidak bias bagi varian faktor gangguan.
Var ( = 70,82 [ = 19,25 SE = 4,38
Var ( = = 0,117 SE( = 0,34
(iii) Penetapan Interval Keyakinan
Misalnya, ingin ditetapkan suatu interval keyakinan untuk α dan β pada tingkat probabilitas p = 0,95. Dengan kata lain, ingin diperoleh nilai t yang membatasi 0,025 area dikedua sisi distribusi. Dengan derajat bebas = 18, maka lihatlah baris ke-18 dan kolom dengan tanda “0,025” pada tabel-t. nilai pada koordinat adalah 2,101.
Oleh karena itu, 95% interval keyakinan untuk α dan β adalah:
92,95 (2,101) (4,38) α 92,95 + (2,101) (4,38)
83,75 α 102,15
Dan: 5,54 (2,101) (0,34) β 5,54 + (2,101) (0,34)
4,38 β 6,25
(iv) Pengujian Hipotesis
Diketahui H0 : β = 0
dan Ha : β
Diatas telah ditentukan daerah penerimaan pada tingkat signifikansi 5% sebagai:
Atau:
Oleh karena nilai 16,29 terletak diluar daerah penerimaan, maka hipotesis yang menyatakan tidak ada hubungan antar X dan Y, yakni Ho, ditolak.






0 komentar:
Posting Komentar