Regresi Rini.docx

  • Uploaded by: Rini Wahyuni
  • 0
  • 0
  • June 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Regresi Rini.docx as PDF for free.

More details

  • Words: 1,446
  • Pages: 9
ANALISIS REGRESI LINIER

Untuk Memenuhi Salah Satu Tugas Mata Kuliah Biostatistika

Oleh RINI WAHYUNI C1AA16085

PROGRAM STUDI SARJANA KEPERAWATAN SEKOLAH TINGGI ILMU KESEHATAN SUKABUMI 2019

ANALISIS REGRESI LINIER

A. Regresi Regresi secara umum adalah sebuah alat statistik yang memberikan penjelasan tentang pola hubungan (model) antara dua variabel atau lebih. Dalam analisis regresi, akan dikembangkan sebuah estimating equation (persamaan regresi) yaitu suatu formula matematika yang mencari nilai variabel dependen dari nilai variabel independen yang diketahui. Dalam analisis regresi dikenal 2 jenis variabel yaitu: 1. Variabel respon disebut juga variabel dependen yaitu variabel yang keberadaannya dipengaruhi oleh variabel lainnya dan dinotasikan dengan variabel . 2. Variabel prediktor disebut juga dengan variabel independen yaitu variabel yang bebas (tidak dipengaruhi oleh variabel lainnya) dan dinotasikan dengan Untuk mempelajari hubugan–hubungan antara variabel bebas maka regresi linier terdiri dari dua bentuk, yaitu: 1. Analisis regresi sederhana (simple analysis regression) 2. Analisis regresi berganda (Multiple analysis regression) Disebut regresi sederhana jika hanya ada satu variabel independen, sedangkan regresi berganda jika ada lebih dari satu variabel independen. Tujuan utama regresi adalah untuk membuat perkiraan nilai suatu variabel (variabel dependen) jika nilai variabel yang lain yang berhubungan dengannya (variabel lainnya) sudah ditentukan. Analisis regresi setidak-tidaknya memiliki 3 kegunaan, yaitu untuk tujuan deskripsi dari fenomena data atau kasus yang sedang diteliti, untuk tujuan kontrol, serta untuk tujuan prediksi. Regresi mampu mendeskripsikan fenomena data melalui terbentuknya suatu model hubungan yang bersifatnya numerik. Regresi juga dapat digunakan untuk melakukan pengendalian (kontrol) terhadap suatu kasus atau hal-hal yang sedang diamati melalui penggunaan model regresi yang diperoleh. Selain itu,

model regresi juga dapat dimanfaatkan untuk melakukan prediksi untuk variabel terikat. Namun yang perlu diingat, prediksi di dalam konsep regresi hanya boleh dilakukan di dalam rentang data dari variabel variabel bebas yang digunakan untuk membentuk model regresi tersebut.

B. Perbedaan Regresi dengan Korelasi 1. Korelasi hanya menunjukkan sekedar hubungan sedangkan Regresi menunjukkan hubungan pengaruh. 2. Dalam korelasi variabel tidak ada istilah tergantung dan variabel bebas sedangkan Dalam regresi terdapat istilah tergantung dan variabel bebas.

C. Analisis Regresi Linier Sederhana Analisis regresi sederhana merupakan hubungan antara dua variabel yaitu variabel bebas (variable independent) dan variabel tak bebas (variabel dependent). Regresi linier sederhana digunakan untuk mendapatkan hubungan matematis dalam bentuk suatu persamaan antara variabel tak bebas tunggal dengan variabel bebas tunggal. Regresi linier sederhana digunakan untuk melakukan pengujian hubungan antara variabel dependen (tergantung) dengan sebuah variabel independen (bebas) saja. Regresi linier sederhana hanya memiliki satu peubah yang dihubungkan dengan satu peubah tidak bebas. Model regresinya adalah linier dalam parameter.Nilai rata-rata dari error adalah nol. Error berdistribusi normal. Adapun persamaan dari regresi sederhana adalah:

Di mana: Y = Variabel tak bebas (dependen) X = Variabel bebas (independen) a = Parameter Intercep (Nilai Konstanta b = Parameter Koefisisen Regresi Variabel Bebas

Menentukan koefisien persamaan a dan b dapat dengan menggunakan metode kuadrat terkecil, yaitu cara yang dipakai untuk menentukan koefisien persamaan a dan b dari jumlah pangkat dua (kuadrat) antara titik-titik dengan garis regresi yang dicari yang terkecil. Dengan demikian, dapat ditentukan:

b

n( XY )  ( X )( Y ) n(  X 2 )  (  X ) 2

a

 Y  b( X ) n

D. Koefisien Determinasi Koefisien Determinasi R2  1

 (Y  Yˆ )  (Y  Y )

2 2

Koefisien Determinasi Disesuaikan (Adjusted)

Radj

P(1  R 2 ) R  N  P 1 2

1. Koefisien Determinasi: Seberapa besar kemampuan semua variabel bebas dalam menjelaskan varians dari variabel terikatnya. Secara sederhana koefisien determinasi dihitung dengan mengkuadratkan koefisien korelasi (R). Nilai R Square adalah antara 0 sampai dengan 1. 2. R Square (R Kuadrat) :Nilainya akan selalu meningkat dengan adanya penambahan variabel bebas dalam suatu model. Hal ini akan menimbulkan bias, karena jika ingin memperoleh model dengan R tinggi, seorang penelitian dapat dengan sembarangan menambahkan variabel bebas dan nilai R akan meningkat, tidak tergantung apakah variabel bebas tambahan itu berhubungan dengan variabel terikat atau tidak. 3. Adjusted R Square: Interpretasinya sama dengan R Square, akan tetapi nilai Adjusted R Square dapat naik atau turun dengan adanya penambahan variabel baru, tergantung dari korelasi antara variabel bebas tambahan

tersebut dengan variabel terikatnya. Nilai Adjusted R Square dapat bernilai negatif, sehingga jika nilainya negatif, maka nilai tersebut dianggap 0, atau variabel bebas sama sekali tidak mampu menjelaskan varians dari variabel terikatnya.

E. Analisis Regresi Linier Berganda Regresi linier berganda adalah analisis regresi yang menjelaskan hubungan antara peubah respon (variabel dependen) dengan faktor-faktor yang mempengaruhi lebih dari satu prediktor (variabel independen). Regresi linier berganda hampir sama dengan regresi linier sederhana, hanya saja pada regresi linier berganda variabel bebasnya lebih dari satu variabel penduga. Tujuan analisis regresi linier berganda adalah untuk mengukur intensitas hubungan antara dua variabel atau lebih dan membuat prediksi perkiraan nilai Y atas X. Adapun persaman regresi berganda adalah:

Metode yang digunakan untuk mengestimasi parameter model regresi linier berganda adalah metode kuadrat terkecil atau sering juga disebut dengan metode ordinary least square (OLS). Metode OLS ini bertujuan meminimumkan jumlah kuadrat error. Penaksir OLS merupakan penaksir yang tidak bias, linier dan terbaik (best linear unbiased estimator/BLUE).

F. Pengujian Parameter Model Regresi Linier Berganda 1. Pengujian Parameter Secara Serentak (Simultan) a. Membuat hipotesis b. Menentukan tingkat signifikansi (α) c. Menentukan statistik uji d. Menentukan daerah kritik (penolakan H0) e. Menarik kesimpulan 2. Pengujian Parameter Secara Individu (Parsial) a. Membuat hipotesis b. Menentukan tingkat signifikansi (α) c. Menentukan statistik uji d. Menentukan daerah kritik (penolakan H0) e. Menarik kesimpulan

G. Asumsi Analisis Regresi Linier Berganda 1. Model regresinya adalah linier dalam parameter. 2. Nilai rata-rata dari error adalah nol. 3. Variansi dari error adalah konstan (homoskedastik). 4. Tidak terjadi autokorelasi pada error. 5. Tidak terjadi multikolinieritas pada variabel bebas. 6. Error berdistribusi normal.

H. Pelanggaran Asumsi Analisis Regresi Linier Berganda 1. Multikolinieritas Multikolinieritas adalah terjadinya hubungan linier antara variabel bebas dalam suatu model regresi linier berganda. Hubungan linier antara variabel bebas dapat terjadi dalam bentuk hubungan linier yang sempurna (perfect) dan hubungan linier yang kurang sempurna (imperfect). Adapun dampak adanya multikolinieritas dalam model regresi linier berganda adalah:

a.

Penaksir OLS masih bersifat BLUE, tetapi mempunyai variansi dan kovariansi yang besar sehingga sulit mendapatkan taksiran (estimasi) yang tepat.

b.

Akibat penaksir OLS mempunyai variansi dan kovariansi yang yang besar, menyebabkan interval estimasi akan cenderung lebih lebar dan nilai hitung statistik uji t akan kecil, sehingga membuat variabel bebas secara statistik tidak signifikan mempengaruhi variabel tidak bebas.

c.

Walaupun secara individu variabel bebas tidak berpengaruh terhadap variabel tidak bebas melalui uji t, tetapi nilai koefisien determinasi (R2) masih bisa relatif tinggi. Selanjutnya untuk mendeteksi adanya multikolinieritas dalam

model regresi linier berganda dapat digunakan nilai variance inflation factor (VIF) dan tolerance (TOL). Dengan ketentuan jika nilai VIF melebihi angka 10, maka terjadi multikolinieritas dalam model regresi. Kemudian jika nilai TOL sama dengan 1, maka tidak terjadi multikolinieritas dalam model regresi.

2. Heteroskedastis Heteroskedastisitas adalah variansi dari error model regresi tidak konstan atau variansi antar error yang satu dengan error yang lain berbeda. Dampak adanya heteroskedastisitas dalam model regresi: a. Walaupun estimator OLS masih linier dan tidak bias, tetapi tidak lagi mempunyai variansi yang minimum dan menyebabkan perhitungan standard error metode OLS tidak bisa dipercaya kebenarannya. b. Selain itu interval estimasi maupun pengujian hipotesis yang didasarkan pada distribusi t maupun F tidak bisa lagi dipercaya untuk evaluasi hasil regresi. c. Akibat dari dampak heteroskedastisitas tersebut menyebabkan estimator OLS tidak menghasilkan estimator yang BLUE dan hanya menghasilkan estimator OLS yang linear unbiased estimator (LUE).

Cara

yang

dapat

digunakan

untuk

mendeteksi

adanya

heteroskedastisitas dalam model regresi adalah dengan Metode Glejser, Metode Park dan Scatter Plot. 3. Autokorelasi Autokorelasi adalah terjadinya korelasi antara satu variabel error dengan variabel error yang lain. Autokorelasi seringkali terjadi pada data time series dan dapat juga terjadi pada data cross section tetapi jarang. Dampak dari adanya autokorelasi dalam model regresi adalah sama dengan dampak dari heteroskedastisitas: Walaupun estimator OLS masih linier dan tidak bias, tetapi tidak lagi mempunyai variansi yang minimum dan menyebabkan perhitungan standard error metode OLS tidak bisa dipercaya kebenarannya. Selain itu interval estimasi maupun pengujian hipotesis yang didasarkan pada distribusi t maupun F tidak bisa lagi dipercaya untuk evaluasi hasil regresi. Akibat dari dampak adanya autokorelasi dalam model regresi menyebabkan estimator OLS tidak menghasilkan estimator yang BLUE dan hanya menghasilkan estimator OLS yang LUE. Untuk mendeteksi adanya autokorelasi dalam model regresi linier berganda dapat digunakan metode Durbin-Watson. Durbin-Watson telah berhasil mengembangkan suatu metode yang digunakan untuk mendeteksi adanya masalah autokorelasi dalam model regresi linier berganda. Kemudian Durbin-Watson berhasil menurunkan nilai kritis batas bawah (dL) dan batas atas (dU) sehingga jika nilai d hitung dari persamaan (6.1) terletak di luar nilai kritis ini, maka ada atau tidaknya autokorelasi baik positif atau negatif dapat diketahui.

Deteksi autokorelasi pada model regresi linier berganda dengan metode Durbin-Watson adalah sebagai berikut:

Related Documents

Analisis Regresi
May 2020 36
Regresi Kuadratik
May 2020 23
Tugas Regresi
May 2020 28
Regresi Rini.docx
June 2020 6
Regresi Logistik.docx
June 2020 8
Analisis Regresi
October 2019 34

More Documents from ""