Jaringan_saraf_tiruan

  • Uploaded by: Dadang Handaru
  • 0
  • 0
  • June 2020
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Jaringan_saraf_tiruan as PDF for free.

More details

  • Words: 380
  • Pages: 9
Jaringan Saraf Tiruan Supervised Learning Process dengan Backpropagation of Error Andre Tampubolon – 1204000114 Arawinda D. – 1205000169 Bernadia Puspasari – 1205000223 Bobby Alexander – 1205000231 Clara Vania – 1205000266 Dyta Anggraeni - 1205000304

Latar Belakang Kebutuhan akan teknologi pengenalan wajah untuk mendukung kegiatan seharihari manusia, misalnya dalam hal keamanan dan identifikasi.

Tujuan Umum Melakukan pembelajaran agar suatu input citra dapat dikenali.

Khusus Menghitung error dari hasil keluaran dan target untuk digunakan sebagai bahan pembelajaran agar dapat mencapai hasil yang mendekati target

Experimental Design Layer dibagi menjadi tiga, yaitu input layer, hidden layer, dan output layer. Input layer terdiri dari 900 neuron dari sebuah data yang berukuran 30x30 pixel. Hidden layer terdiri dari 100 neuron, dan output layer terdiri dari 5 neuron sebagai target. Langkah-langkah yang dilakukan: Inisialisasi bobot dengan metode Nguyen-Widron. Selama nilai error belum mencapai batas toleransi error atau epoch belum mencapai 104, lakukan proses Feedforward dan Backpropagation.

Feedforward 





Setiap input yang diterima dikirimkan ke semua unit layer di atasnya (hidden layer). Pada setiap unit hidden, 1. Semua sinyal input dengan bobotnya dihitung sebagai input dari hidden layer. 2. Nilai aktivasi sebagai output unit hidden dihitung. 3. Nilai aktivasi dikirim sebagai input untuk unit output. Pada setiap unit output, 1. Semua sinyal input dengan bobotnya dihitung sebagai input dari output layer. 2. Nilai aktivasi sebagai output jaringan dihitung.

Backpropagation 

Pada setiap unit output: 1. Menerima pola target yang bersesuaian dengan pola input. 2. Menghitung informasi error. 3. Menghitung besarnya koreksi bobot unit output. 4. Menghitung besarnya koreksi bias output. 5. Mengirimkan informasi error ke unit-unit yang ada pada layer di bawahnya.

Backpropagation 



Pada setiap unit hidden: 1. Menghitung semua koreksi error. 2. Menghitung nilai aktivasi koreksi error. 3. Menghitung koreksi bobot unit hidden. 4. Menghitung koreksi error bias unit hidden. Setelah itu, setiap unit output dan hidden masing-masing meng-update bobot dan biasnya.

Experimental Result Dari hasil penelitian yang kelompok kami lakukan, error paling minimum didapatkan ketika dipilih alpha dan momentum yang paling kecil, yaitu masing-masing bernilai 0.1. Sebanyak 10.000 iterasi dilakukan dan kemudian didapatkan error yang turun naik, namun akhirnya konvergen menurun.

Experimental Result Alpha = 0.1 Miu = 0.1, 0.2, 0.3 0,06 0,05 0,04

0,3

0,03

0,2

0,02

0,1

0,01 0 1

1067 2133 3199 4265 5331 6397 7463 8529 9595

More Documents from "Dadang Handaru"