5.1 Hubungan Stokastik dan
Nir-stokastik
Hubungan antara X dab Y yang
terbentuk y=f(x) dikatakan ‘deterministik” (pasti) atau ‘nir-stokastik , jika
suatu nilai variabel bebas (X) terdapat suatu nilai variabel terikat (Y) .
Suatu hubungan antara X dan Y dikatakan ‘sytokastik’ jika suatu nilai X
tertentu terdapat distribusi probalitas meneyluruh dari nilai Y. Dengan demikian,
dalam kasus stokastik ini, setiap nilai X tertentu variabel terikat y dapat
memilki beberapa nilai dengan probalitas yang tertentu .
Contoh
: permintaan akan sutau barang tertentu, diasumsikan tergantung pada harga
barang itu saja (faktor penentu lainnya dianggapo kosntan , atau cateris
paribus ) dan bentuk funsginya adalah linier
Q = f(p) = α +βp
Dengan
data p dan q tertentu misalnya diperoleh α = 25 dan β=-2 sehingga persamaaan
permintaan itu menjadi .
Q = 25 – 2p
Hubungan
antara p dan q di atas menunjukkan setiapp nilai p tertentu , misalnya 2 satuan
hanya ada satu nilai q , yaitu = 21 satuan . jika harga p adalah 5 satuan, maka jumlah barang yang diminta
menjadi 15 satuan dan seterusnya .
Hubungan diatas disebut hubungan
‘deterministrik’ , karena setiap harga barang hanya ada satu jumlah barang yang diminta atau dijual.
Q = 25 -2p + U
Hubungan
q = 25 -2p =U adalah hubungan stokastik karena terdapat variabel gangguan (U).
Dalam hubungan stokastik , nilai variabel bebas (p) yang berebda-beda menimbulkan
distribusi probalitas p=1 diperoleh distribusi probalitas I dari nilai-nilai q
dengan rerta= 24 dan varian= 0,5. Jikan p = 2, diperoleh distribusi
probabilitas bariabel terikat berbeda menurut reratanya, tetatapi buikan
variannya.
5.2 Model Regresi Linier Sederhana
Hubungan atau persamaan dalam teori ekonomi biasanya
mempunyai spesifikasi hubunga yang pasti
atau hubungan deterministik diantara variabel-variabel. Mengingat bahwa
hubungan yang pasti tidak pernah ada dalam ekonomi maka faktor-faktor stokastik
harus ada dalam hubungan ekonomi. Dengan semakin banyaknya tuntutan akan
perlunya menguji teori-teori ekonomi, variabel stokastik juga perlu diuji
keberadaannya didalam hubungan ekonomi.
Bentuk paling sederhana dari hubungan stokastik
antara dua variabel X dan Y disebut “model regresi linier”
Yi = α + βXi + Ui (i= 1 , … , n)
Y disebut variabel terikat , X adalah variabel bebas
atau variabel penjelas , U adalah variabel gangguan stokastik , α, β adalah
parameter – parameter regresi . Subskrip I menunjukkan pengamatan yang ke-i.
Parameter α dan β ditaksir atas dasar data yang tersedia untuk variabel x dan
y.
Alasan
penyisipan faktor U tersebut :
1.
Karenakesalahandalampersamaan
2.
Karenakesalahandalampengukuran
3.
Karenaketidaksempurnaanspesifikasibentukmatematis
model
4.
Karena
agregasi
Untuk
sebuah model regresi linier sederhana , spesifikasi ini dikelompokkan menjadi
lisa asumsi dasar , biasanya dikenal sebagai “asumsi-asumsi model regresi
linier”
1.
Asumsi1
.Uiadalahsebuahvariabel random riildanmemilkidistribusi normal
2.
Asumsi
2 nilaireratadariUisetiapperiodetertentuadalahnol
E[Ui] = 0 (i=1,
…. n)
3.
Asumsi
3 variandariUiadalahkonstansetiapperiode
E[Ui2] =
2
2 adalah konstan
4.
Asumsi
4 faktordarigangguanpengamatan yang berebda-beda (Ui , Uj) tidaktergantung
E[Ui,Uj]=0 (i≠J)
Asumsiinidikenalsebagaiasumsi
‘nir-otokorelasi’
5.
Variabel-variabelpenjelas/bebasadalahvariabelnir-stokastikdandiukurtanpakesalahn
;Uitidaktergantungpadavariabelpenjelas/bebas.
E[Xi,Uj]= Xi E[Uj] = 0 untukseluruhI,j =1 ,….,n.
5.3
PenaksiranParameter-parameter Regresi
Yang dimaksudkan penaksiran α dan β dengan metode
kusrat terkecil atau kuadrat terkecil klasik adalah menemukan nilai-nilai
taksiran α dan β yang meminumkan jumlah kuadrat residu : Σie2
Dari garis regresi sampel Y= α + βXi + ei ;
diperolah :
ei = Yi
(α + βXi)
dan
Nilai-nilai α dan β yang
bmeminumkan jumlah kuadrat, diperoleh dengan menurunkan secara parsial fungsi
kuadrat residual
dan menyamakan turunan ini dengan nol .
Maka :
β= 
(a). Linear (Linearity)
Atau :
Sehingga :
Anggaplah bahwa :
Maka :
(dari
5.6)
Begitu juga dengan (5.3) yang memberikan :
Sehingga :
Jadi baik
merupakan fungsi linier dari Y.
(b). Unbiasedness
=∑ki(α+βXi+Ui)
=α∑ki+β∑kiXi+∑kiUi (5.8)
(c). Varian Minimum
dari dan
Sekarang harus dibuktikan dan memiliki varian
sampel terkecil dibandingkan denganbpenaksir-penaksir linier tidak bias
lainnya.
Maka
Untuk membuktikan bahwa memiliki varian minimum , perlu
dibandingkan varian dengan varian
beberapa penaksir β ( katakan lah ) yang tidak bias.
Misalkan :
dimana
konstanta Wi ≠ Ki , tetapi Wi=Ki+ Ci
Sehingga :
= α∑wi+β∑wiXi+∑wiUi (5.14)
Karena
diasumsikan penaksir yang
tidak bias, berarti pada persamaan diatas cwi=0 dan ∑wiXi=1
Jadi telah ditunjukkan ,
jika
merupakan penaksir yang tidak bias, hasil
hasil berikut berlaku:
∑wi=0, ∑wiXi=1, ∑ci=0,
∑ciXi=0 (5.15)
Varian dari
yang diasumsikan menjadi:
Sedangkan:
Pentingnya
Sifat BLU :
(a).
Linier.Sifat ini dibutuhkan untuk memudahkan perhitungan dalam penaksiran .
(b).
Unbiasedness : Secara sendirian sifat ini tidak berguna. Satu-satunya jaminan
dari sifat ini adalah bila jumlah sampel sangat besar, penaksir parameter diperoleh
dari sampel besar kira-kira lenih mendekati nilai parameter sebenarnya .
(c).
Best : Sifat varian terkecil secara sendirian tidak dibutuhkan, karena suatu
taksiran memiliki varian nol , namun memiliki penyimpangan yang besar. Sifat
varian minimum yang dibutuhkan , bila dikombinasikan dengan sifat tidak bias .
Pentingnya sifat ini kelohatan bila di terapkan dalam uji signifikansi baku (
standar ) terhadap α dan β, serta membuat interval keyakinan taksiran-taksiran.
Penaksir linier kuadrat terkecil yang memenuhi
persyaratan seluruh asumsi klasik dinamakan penaksir yang BLUE (Best Linier
Unbiased Estimator). Kesimpulan ini merupakan teorema Gauss – Markov.
5.5 Penaksir Maksimum Likelihood
Ada dua hal penting yang diaamati
dari hasil penurunan (derivasi) sub bab 5.3 dan 5.4 yaitu :
a.
Untuk
membuktikan sifat BLU penaksir kuadrat terkecil, tidak asumsi klasik
dipergunakan. Misalnya, untuk membuktikan sifat linierritas diperlukan asusmsi
kovarian antara faktor gangguan dan variabel bebas E[XiUj]=0
b.
Untuk
membuktikan sifat-sifat BLU tidak perlu dibuat asumsi bentuk spesifik dari
distribusi faktor-faktor gangguan. Kenyataannya asumsi normalitas dari U tidak
diperlukan untuk membuktikan
dan
sebagai BLUE.
5.6 Distribusi Sampel Penaksir
Kuadrat Terkecil
Oleh karena penaksir-penaksir kuadrat terkecil
merupakan kombinasi linier variabel-variabel normal Y1, Y2, Y3, …. Yn tidak
saling tergantung maka
dan
makan dan juga berdistribusi normal, dengan
sifat-sifat sebagai berikut :
i.
dan
adalah penaksir-penaksir yang tidak bias, yaitu rerata
masing-masing sama dengan nilai α dan β yang sebenarnya.
ii.
Varian
dari setiap penaksir diketahui
5.7
Interval Keyakinan dan Uji Hipotesis
Penyusutan interval keyakinan
penting untuk memperoleh ketepatan
dan
Untuk
itu , semua informasi yang berhubungan dengan distribusi
dan
sudah
dibahas dalam hal ini :
dan 
Dalam
kasus
maka:
,
Sehingga:
,
(5.23)
Dengan
cara yang sama , pengujian atas β dilakukan sebagai berikut:
5.8
Goodness of Fit
Disini
akan dibahas tentang garis regresi sebagai suatu keseluruhan dan diuji
kebenaran letak taksirannya (goodness of fit). Dalam hal ini pertama ,
mengukur proporsi variasi variable terikat
yang dijelaskan oleh variable-variabel bebasnya. Kedua,nilai
tergantung jumlah kuadrat factor residu.
5.9
Pelaporan Hasil-hasil Analisi Regresi
Hasil-hasil
analisis regresi dapat dilaporkan dalam bentuk (format) yang konvensional.
Dalam praktek, koefesien-koefisien regresi bersama-sama dengan kesalahan
standart nilai
harus dilaporkan. Beberapa pakar ekonometrika
sering menyertakan t-ratio dari koofisien taksiran sebagai pengganti kesalahan
standart.
5.10
Aplikasi (Penerapan)
Contoh 1:
Tentukan
hasil-hasil regresi dari data 20 pasang pengamatan atas X dan Y.
∑Xi
= 228, ∑Yi= 3121, ∑XiYi=38927, ∑X
= 3204
Jawaban :
i.
Penaksiran

∑Xi= 228 ; n=20 ;
sehingga 
∑Yi = 3121 ; n=20 ;
sehingga 
Dari (5.5),
= 156,05 – (5,54) (11,40) = 92,95
Maka hasl taksiran regresi adalah :
(ii). Penaksiran Varian
Var (
) =
) dan Var
) = 
Oleh karena
tidak diketahui, maka dapat disubsitusikan
yang tidak bias bagi varian factor gangguan ke
dalam persamaan diatas sehingga :
Var (
) =
) dan Var
) = 
Dimana ,
=

= 
Sehingga :
Var
=
70,82 [
=
4,38
dan
Var
(
(iii) Penetapan interval Keyakinan
Misalnya,
ingin ditetapkan suatu interval keyakinan untuk
pada tingkat probabilitas p = 0,95.
Dengan kata lain, ingin diperolah nilai t yang membatasi 0,025 area di kedua
sisi distribusi. Dengan derajat bebas = 18m, lihat baris ke-18 dan kolom dengan
tanda ‘0,025’ pada table-t. Nilai oada koordinat adalah 2,101.
Oleh
karena itu , 95% interval keyakinan untuk
adalah :
92,95 – (2,101)(4,38)
(2,101)(4,38)
83,75
α

Dan : 5,54 – (2,101)(0,34)
β
5,54 +(2,101)(4,38)
4,38
β

(iv). Pengujian Hipotesis
Diketahui Ho : β
= 0
Ho ≠ 0
Diatas telah ditentukan daerah
penerimaan pada tingkat signifikansi 5% sebagai :
-
[SE(
) ≤
≤
+
[SE(
)]
Atau :
-
≤
+

Oleh karena nilai 16,29 terletak diluar
daerah penerimaan , maka hipotesis yang menyatakan tidak ada hubungan antara X
dan Y, yakni Ho, ditolak.
Contoh :
Tabel berikut
menyajikan produk nasional bruto (X) dan permintaan makanan (Y) diukur dalam
satuan-satuan arbitrary. Data tersebut berasal dari sebuah Negara yang sedang
berkembang, yang meliputi periode 10 tahun. Taksir fungsi perminataan akan
makanan : Y = α+ βX + U
|
Tabel
5.1
|
|||||||||||
|
Data
dan Perhitungan untuk Penaksiran Fungsi Makanan : Y = α + βX + U
|
|||||||||||
|
n
|
Yi
|
Xi
|
Xi2
|
Xi.Yi
|
Yi=(Y1-Y1 ̅)
|
Xi=(X1-X ̅)
|
Xi.Yi
|
Xi2
|
Ŷ=(α ̂+ β ̂X1)
|
ei =( Y1-Ŷ)
|
ei2
|
|
1
|
6
|
50
|
2500
|
300
|
-2,8
|
-9,6
|
26,88
|
92,16
|
6,846
|
-0,846
|
0,715716
|
|
2
|
7
|
52
|
2704
|
364
|
-1,8
|
-7,6
|
13,68
|
57,76
|
7,2526
|
-0,2526
|
0,06380676
|
|
3
|
8
|
55
|
3025
|
440
|
-0,8
|
-4,6
|
3,68
|
21,16
|
7,8625
|
0,1375
|
0,01890625
|
|
4
|
10
|
59
|
3481
|
590
|
1,2
|
-0,6
|
-0,72
|
0,36
|
8,6757
|
1,3243
|
1,75377049
|
|
5
|
8
|
57
|
3249
|
456
|
-0,8
|
-2,6
|
2,08
|
6,76
|
8,2691
|
-0,2691
|
0,07241481
|
|
6
|
9
|
58
|
3364
|
522
|
0,2
|
-1,6
|
-0,32
|
2,56
|
8,4724
|
0,5276
|
0,27836176
|
|
7
|
10
|
62
|
3844
|
620
|
1,2
|
2,4
|
2,88
|
5,76
|
9,2856
|
0,7144
|
0,51036736
|
|
8
|
9
|
65
|
4225
|
585
|
0,2
|
5,4
|
1,08
|
29,16
|
9,8955
|
-0,8955
|
0,80192025
|
|
9
|
11
|
68
|
4624
|
748
|
2,2
|
8,4
|
18,48
|
70,56
|
10,5054
|
0,4946
|
0,24462916
|
|
10
|
10
|
70
|
4900
|
700
|
1,2
|
10,4
|
12,48
|
108,16
|
10,912
|
-0,912
|
0,831744
|
|
JUMLAH
|
88
|
596
|
35916
|
5325
|
-7,1054E-15
|
-1,42109E-14
|
80,2
|
394,4
|
87,9768
|
0,0232
|
5,29163684
|
|
RATA-RATA
|
8,8
|
59,6
|
3591,6
|
532,5
|
-7,1054E-16
|
-1,42109E-15
|
8,02
|
39,44
|
8,79768
|
0,00232
|
0,529163684
|
|
β
|
0,203347
|
||||||||||
|
α
|
-3,31947
|
||||||||||
Ringkasan hasil analisi regresinya
adalah :
SE (
t* -1,35 4,98
Welcome to SHAZAM - Version 10.0 - APR+2008 SYSTEM=WIN-NT PAR= 22480 - 03/11/15 21:26:40
|_SAMPLE 1 10
|_READ Y X
2 VARIABLES AND 10
OBSERVATIONS STARTING AT OBS 1
|_*
|_*CREATING SOME VARIABLE
|_OLS Y X/MAX DN
REQUIRED MEMORY IS PAR= 1 CURRENT PAR= 22480
OLS ESTIMATION
10 OBSERVATIONS DEPENDENT
VARIABLE= Y
...NOTE..SAMPLE RANGE SET TO: 1,
10
R-SQUARE = 0.7550 R-SQUARE ADJUSTED = 0.7244
VARIANCE OF THE ESTIMATE-SIGMA**2 = 0.52916
STANDARD ERROR OF THE ESTIMATE-SIGMA = 0.72743
SUM OF SQUARED ERRORS-SSE= 5.2916
MEAN OF DEPENDENT VARIABLE = 8.8000
LOG OF THE LIKELIHOOD FUNCTION = -11.0070
MODEL SELECTION TESTS - SEE JUDGE ET AL.
(1985,P.242)
AKAIKE (1969) FINAL PREDICTION ERROR - FPE = 0.63499
(FPE IS ALSO KNOWN AS AMEMIYA PREDICTION CRITERION - PC)
AKAIKE (1973) INFORMATION CRITERION - LOG AIC = -0.23647
SCHWARZ (1978) CRITERION - LOG SC = -0.17595
MODEL SELECTION TESTS - SEE RAMANATHAN (1998,P.165)
CRAVEN-WAHBA (1979)
GENERALIZED CROSS VALIDATION - GCV = 0.82681
HANNAN AND QUINN (1979) CRITERION = 0.73871
RICE (1984) CRITERION = 0.88193
SHIBATA (1981) CRITERION = 0.74082
SCHWARZ (1978) CRITERION - SC = 0.83866
AKAIKE (1974) INFORMATION CRITERION - AIC = 0.78941
ANALYSIS OF VARIANCE -
FROM MEAN
SS DF MS F
REGRESSION 16.308 1. 16.308 30.820
ERROR 5.2916 10. 0.52916 P-VALUE
TOTAL 21.600 9. 2.4000 0.000
ANALYSIS OF VARIANCE -
FROM ZERO
SS DF MS F
REGRESSION 790.71 2. 395.35 747.138
ERROR 5.2916 10. 0.52916 P-VALUE
TOTAL
796.00 10. 79.600 0.000
ASYMPTOTIC
VARIABLE
ESTIMATED STANDARD T-RATIO PARTIAL STANDARDIZED ELASTICITY
NAME COEFFICIENT ERROR
-------- P-VALUE CORR. COEFFICIENT AT MEANS
X
0.20335 0.3663E-01 5.552
0.000 0.891 0.8689 1.3772
CONSTANT
-3.3195 2.195 -1.512
0.130-0.471 0.0000 -0.3772
VARIANCE-COVARIANCE MATRIX OF COEFFICIENTS
X
0.13417E-02
CONSTANT -0.79964E-01 4.8188
X CONSTANT
CORRELATION MATRIX OF COEFFICIENTS
X
1.0000
CONSTANT -0.99449 1.0000
X CONSTANT
OBS. OBSERVED PREDICTED
CALCULATED
NO. VALUE VALUE RESIDUAL
1 6.0000 6.8479 -0.84787 * I
2 7.0000 7.2546 -0.25456 * I
3 8.0000 7.8646 0.13540 I*
4 10.000 8.6780 1.3220 I *
5 8.0000 8.2713 -0.27130 * I
6 9.0000 8.4746 0.52535 I *
7 10.000 9.2880 0.71197 I *
8 9.0000 9.8981
-0.89807 * I
9 11.000 10.508 0.49189 I *
10 10.000 10.915 -0.91481 * I
DURBIN-WATSON = 2.1966 VON NEUMANN RATIO = 2.4406 RHO = -0.29136
RESIDUAL SUM =
0.44409E-14 RESIDUAL VARIANCE
= 0.52916
SUM OF ABSOLUTE ERRORS= 6.3732
R-SQUARE BETWEEN OBSERVED AND PREDICTED =
0.7550
RUNS TEST:
7 RUNS, 5 POS, 0 ZERO,
5 NEG NORMAL STATISTIC = 0.6708
COEFFICIENT OF SKEWNESS = 0.2471 WITH STANDARD DEVIATION OF 0.6870
COEFFICIENT OF EXCESS KURTOSIS = -0.9781 WITH STANDARD DEVIATION OF 1.3342
JARQUE-BERA NORMALITY TEST- CHI-SQUARE(2
DF)= 0.5753 P-VALUE= 0.750
GOODNESS OF FIT TEST FOR NORMALITY OF RESIDUALS - 6 GROUPS
OBSERVED
0.0 3.0 2.0
4.0 1.0 0.0
EXPECTED
0.2 1.4 3.4
3.4 1.4 0.2
CHI-SQUARE =
3.2183 WITH 2 DEGREES OF FREEDOM,
P-VALUE= 0.200
..COMPLETED
No comments:
Post a Comment