Skip to content Skip to sidebar Skip to footer

Analisis Regresi Linier

Dalam penelitian, indikator yang mempunyai nilai loading besar kemudian dilanjutkan dengan analisis regresi untuk melihat efek variabel bebas terhadap variabel terikat. Persamaan regresi yang biasa dipakai ialah
Y = a + b1X1 + b2 X2+e Dimana
Y = Minat Masyarakat
a = konstansta
X1 = Risiko Investasi
X2 = Atribut Produk Islami
B1,2 = Koefisien Regresi
e = Error
Ada beberapa cara menguji persamaan regresi, yaitu;
1) Uji Normalitas
Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual mempunyai distribusi normal. Dalam regresi linear disturbance error atau variabel gangguan (ei) berdistribusi secara normal atau acak untuk setiap nilai Xi, mengikuti distribusi normal disekitar rata-rata.
Pengujian sanggup dilakukan melalui dua pendekatan yaitu memakai pendekatan statistic dan grafik. Dalam hal ini data diuji dengan pendekatan grafik. Jika data menyebar disekitar garis diagonal dan mengikuti arah garis diagonal, maka model regresi memenuhi perkiraan normalitas. Sedangkan kalau data menyebar jauh dari diagonal dan tidak mengikuti arah garis diagonal atau garis histogram tidak menawarkan tumpuan distribusi normal, maka model regresi tidak memenuhi perkiraan normalitas.
2) Uji Autokorelasi
Autokorelasi ialah hubungan antara data urut waktu (time series) atau antara space untuk data cross section. Keberadaan autokorelasi yang signifikan menjadikan parameter regresi menjadi tidak konsisten, meskipun tidak biasa. Oleh alasannya ialah itu, hasil regresi dilarang mengandung gej autokorelasi yang signifikan.
Pengujian terhadap adanya fenomena autokorelasi dalam data yang dianalisis sanggup dilakukan dengan memakai Durbin- Watson Test. Jika nilai statistik Durbin-Watson (DW) mendekati 2, maka sanggup disimpulkan tidak terjadi autkorelasi yang signifikan.
3) Uji Heteroskedastisitas
Heteroskedastisitas ialah fenomena di mana pada nilai variabel independen tertentu, masing-masing kesalahan (ei) mempunyai nilai varian (σ ) yang tidak sama. Heteroskedastisitas ini menjadikan nilai-nilai estimator (koefisien regresi) dari model tersebut tidak efisien meskipun estimator tersebut tidak bias dan konsisten. Pengujian terhadap adanya fenomena heteroskedastisitas dilakukan dengan memakai Spearman's Rank Correlation Test.
4) Uji Multikoleniaritas
Multikolinearitas ialah fenomena adanya hubungan yang tepat antara satu variabel bebas dengan variabel bebas yang lain. Konsekuensi simpel yang timbul sebagai jawaban adanya multikolinearitas ini ialah kesalahan standar parameter menjadi semakin besar. Hal ini boleh terjadi pada hasil analisis regresi. Pengujian terhadap ada tidaknya multikolinearitas dilakukan dengan memakai metode VIF (Variance Inflation Factor). Adapun kriteria yang dipakai dalam pengujian metode VIF ini ialah sebagai diberikut:
Jika VIFj>10 terjadi multikolinearitas tinggi antara regresor (variabel bebas) j dengan regresor (variabel bebas) yang lain.
5) Uji T (Regresi Parsial)
Uji ini sering disebut dengan ketepatan parameter penduga (estimate), Uji t dipakai untuk menguji apakah pertanyaan hipotesis benar. Uji statistik t pada dasarnya menawarkan seberapa jauh efek suatu variabel penjelas (independen) secara individual dalam pertanda variabel terikat. Adapun prosedurnya sebagai diberikut:
1) Menentukan H0 dan H1 (Hipotesis Nihil dan Hipotesis alternatif);
2) melaluiataubersamaini melihat hasil print out komputer melalui agenda SPSS for Windows, diketahui nilai thitung dengan nilai signifikansi nilai t;
3) Jika signifikansi nilai t < 0,05 maka ada efek signifikan antara variabel bebas dengan variabel terikat;
Jika signifikansi nilai t > 0,05 maka tidak ada efek yang signifikan antara variabel bebas terhadap variabel terikat, artinya H0 diterima dan menolak H1, pada tingkat signifikansiα = 5%. Namun bila nilai sig. t > 0,05 dan sig.t < 0,10 maka ada efek yang signifikan pada signifikansi α = 10%.
6) Uji F (Regresi Simultan)
Uji F yaitu untuk mengetahui efek dari variabel bebas (independen) terhadap variabel tak bebas (dependen) secara bersama-sama. Menurut Kuncoro76 uji statistik F pada dasarnya menawarkan apakah tiruana variabel bebas yang dimasukkan dalam model mempunyai efek secara gotong royong terhadap variabel terikat. Prosedurnya uji F sebagai diberikut:
1) Menentukan H0 dan H1 (Hipotesis Nihil dan Hipotesis alternatif);
2) Menentukan level of signifikans (α = 5 % );
3) Kriteria uji F, dengan melihat hasil print out komputer, kalau nilai signifikansi < 1%, maka model dalam analisis sudah tepat (fit), berarti signifikans pada α = 1%.
7) Uji Determinasi (R Square)
Koefisien Determinasi Menurut Setiaji, koefisien determinasi (R2) pada pada dasarnya dipakai untuk mengukur seberapa jauh kemampuan variabel bebas dalam pertanda variabel terikat.
®
Kepustakaan:
Imam Ghozali, Aplikasi Multivariate melaluiataubersamaini Program SPSS, (Semarang: UNDIP, 2001). Damodar Gujarati, Ekonometrika Dasar, (Jakarta: Erlangga, 1995). Bambang Setiaji, Panduan Riset dengan Pendekatan Kuantitatif, (Surakarta: Program Pasca Sarjana UMS, 2004). Mudrajat Kuncoro, Metode Kuantitatif: Teori dan Aplikasi untuk Bisnis dan Ekonomi, (Yogyakarta: AMP YKPN, 2001).