STATISTIKA
DISUSUN O L E H
Nama : Firli Juniarti Baeten (1743002) Fransiska Yuniarta Tambunan (1743001)
Universitas Katolik Musi Charitas Palembang 2018/2019
ANALISIS REGRESI BERGANDA Uji Validitas Untuk melakukan uji validitas ini menggunakan program SPSS. Teknik pengujian yang sering digunakan para peneliti untuk uji validitas adalah menggunakan korelasi Bivariate Pearson (Produk Momen Pearson). Analisis ini dengan cara mengkorelasikan masing-masing skor item dengan skor total. Skor total adalah penjumlahan dari keseluruhan item. Item-item pertanyaan yang berkorelasi signifikan dengan skor total menunjukkan item-item tersebut mampu memberikan dukungan dalam mengungkap apa yang ingin diungkap à Valid. Jika r hitung ≥ r tabel (uji 2 sisi dengan sig. 0,05) maka instrumen atau item-item pertanyaan berkorelasi signifikan terhadap skor total (dinyatakan valid). Langkah-langkah dalam pengujian validitas ini yaitu :
1. Buat skor total masing-masing variabel (Tabel perhitungan skor)
2. Klik Analyze -> Correlate -> Bivariate (Gambar/Output SPSS)
3. Masukan seluruh item variabel x ke Variabels
4. Cek list Pearson ; Two Tailed ; Flag 5. Klik Ok
R tabel
No. Soal R hitung
Keterangan (pembulatan 1 angka dibelakang koma)
1 2 3 4 5 6 7 8 9 10 11 12 13
0,320 0,607 0,673 0,730 0,421 0,616 0,661 0,573 0,606 0,483 0,341 0,544 0.618
0,374 0,374 0,374 0,374 0,374 0,374 0,374 0,374 0,374 0,374 0,374 0,374 0,374
Uji Reabilitas 1. Klik Analyze -> Scale -> Reliability Analysis
Valid Valid Valid Valid Valid Valid Valid Valid Valid Valid valid Valid Valid
jika kurang dari 0,6 berarti => tidak reliabelitas, jika lebih dari 0,6 berarti => reliabelitas
Uji Normalitas 1. Setelah data terisi pada variabel, Klik Analyze > Nonparametric Tests > Legacy Dialogs > 1-Sample K-S
2. . Pindah semua variabel ke kanan
3. Klik OK
Cara membacanya : Ho : Populasi berdistribusi tidak normal Ha : Populasi berdistribusi normal Dasar pengambilan keputusan adalah berdasarkan probabilitas Jika nilai probabilitas > 0,05 maka Ho ditolak Jikan nilai probabilitas <= 0,05 maka Ho diterima Sehingga dari hasil Kolmogorov-Smirnov diatas maka X1 = 1, 376 yang artinya > 0,05 maka populasi berdistribusi normal X2 = 0, 651 yang artinya > 0,05 maka populasi berdistribusi normal X3 = 1, 022 yang artinya > 0,05 maka populasi berdistribusi normal Y = 0,927 yang artinya > 0,05 maka populasi berdistribusi normal
Uji Linieritas 1. Pilih analyze => compare means => means
2. Lalu pilih => y pindahkan ke dependent, dan pilih => x1,x2,x3 ke independent (x1-y merupakan total dari masing-masing variabel dependent dan independenr).
3. Pilih options, lalu klik median dan centang pada bagian test for linierity
4. Klik continue 5. Klik OK
H0=tidak linier
H1=linier
-Syarat: Jika nila Fhitung >o,05 makan H0 di tolak Jika nilai Fhitung < 0,05 maka HO diterima
-Kesimpulan: Karena Fhitung (2,095) >0,05 maka linier
ASUMSI KLASIK Multikolinieritas 1. Klik analyze => regression => linier
2. Lalu pindahkan Y => ke deoendent / X1, x2, x3 => ke independent
3. Pilih statistics, lalu centang bagian collinearity diagnosis, klik continue
Syarat: Nilai VIF <10 maka tidak terjadi gangguan multikolinieritas\ >10 maka terjadi gangguan multikolinieritas Kesimpulan : karena nilai VIF untuk semua variabel <10 maka tidak terjadi gangguan multikolinieritas HETEROSKEDASTISITAS Uji Heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Jika variance dari residual satu pengamatan ke pengamatan lain tetap, maka disebut Homoskedastisitas dan bebeda disebut Heteroskedastisitas. Model regresi yang baik seharusnya tidak terjadi Heteroskedastisitas. Dasar Pengambilan keputusan pada Uji Heteroskedastisitas, yakni:
Jika nilai signifikansi lebih besar dari 0,05, kesimpulannya adalah tidak terjadi Heteroskedastisitas. Jika nilai signifikansi lebih kecil dari 0,05, kesimpulannya adalah terjadi Heteroskedastisitas.
1. Pilih menu Analyze, kemudia submenu Regression, lalu pilih Linear
2. Muncul kotak baru dengan nama Linear Regression, Masukkan variable X1, X2, dan X3 pada kotak Independent(s). Lalu masukkan variabel Y pada kotak Dependent, selanjutnya klik Save
3. Muncul dialog dengan nama Linear Regression : Save, selanjutnya pada bagian Residuals, centang (v) Unstandardized, lalu klik Continue.
4. Lalu Klik OK, abaikan output SPSS yang muncul, lalu lihat bagian Data View, maka akan muncul variabel baru dengan nama RES_1
5. Selanjutnya, buat variable RES3, caranya: dari menu utama SPSS, pilih Transform, lalu Compute Variable: Pada kotak “Target Variable” isi dengan RES3. Pada kotak “Numeric Expression” ketikkan rumus: “ABS_RES(RES_1)”
6. Kemudian klik OK, abaikan output SPSS yang muncul, lihat dibagian Data View maka akan muncul variable baru dengan nama RES3
7. Pilih menu Analyze, kemudia submenu Regression, lalu pilih Linear.
8. Kemudian, muncul kotak dialog dengan nama Linear Regression, lalu keluarkan dulu variable Y yang tedapat pada Dependent dan ganti dengan variable RES3, lalu klik Save.
9. Muncul kotak dengan nama Linear Regression : Save, selanjutnya pada bagian Residuals, hilangkan tanda centang (v) Unstandardized (abaikan kolom yang lain), lalu klik Continue.
10. Lalu klik OK.
Berdasarkan output diatas, diketahui bahwa 1. nilai signifikansi variable X1 sebesar 0,453 > 0,05, artinya tidak terjadi Heteroskedastisitas pada variable X1. 2. Nilai signifikansi variable X2 sebesar 0, 434 > 0,05, artinya tidak terjadi Heteroskedastisitas pada variable X2. 3. Nilai signifikansi variable X3 sebesar 0, 649 > 0,05, artinya tidak terjadi Heteroskedastisitas pada variable X3.
Auto Korelasi 1. Pilih analyze => regression => linier
2. Pindahkan y ke dependent Pindahkan x1, x2, x3 ke independent
3. Pilih statistics, dan klik tanda centang pada kolom durbin watson
Syarat: Du < dw hitumg < 4-du
Kesimpulan: du (1,6498) < dw hitung (2,212) < 2,3502 jadi. Dapat disimpulkan bahwa tidak terdapat autokorelasi
Uji T parsial 1. Pilih analyze => regression => linier
2. Pindahkan y ke dependent / x1, x2, x3 ke independent
Syarat: Jika nilai t hitung > t tabel maka variabel bebas (X) berpengaruh terhadap variabel terikat (Y). Jika nilai t hitung < t tabel maka variabel bebas (X) tidak berpengaruh terhadap variael terikat (Y). Kesimpulan: X1 = Thitung (2,059) > Ttabel (1,70113) maka, variabel bebas (x) berpengaruh terhadap variabel variabel terikat (Y) X2 = Thitung (1,351) < Ttabel (1,70113) maka, variabel bebas (x) tidak berpengaruh terhadap variabel bebas (y) X3 = Thitung (0,197) < Ttabel (1,70113) maka, variabel bebas (x) tidak berpengaruh terhadap variabel bebas (y)
Uji F bersama-sama