Dokumen tersebut menjelaskan algoritma backpropagation untuk jaringan saraf tiruan (JST) dengan satu layer tersembunyi. Algoritma ini melakukan perhitungan maju untuk menghitung error output, kemudian perhitungan mundur untuk memperbaiki bobot dengan memproporsikan error tersebut. Proses ini diulang sampai kondisi penghentian terpenuhi.
2. Definisi
Salah satu algoritma yang menggunakan metode terawasi
(supervised learning) dan termasuk jaringan MLP (Multi Layer
Perceptron
Jaringan MLP
3. Contoh Arsitekstur JST Backpropagation dengan:
x unit masukkan
z unit layer tersembunyi
y unit keluaran
1
Y1
Y2
Ym
Z1
Z2
Zp
1
X1
X2
Xn
V10
V20
Vp0
V11
Vp1
V21
V12
Vm2
V22
V1n
Vpn
V2m
W10W20
Wm0
W11
Wm1
W21
W12
Wm2
W22
W1p
Wmp
W2p
Layer Masukkan Layer tersembunyi Layer Keluaran
4. Algoritma ini melakukan dua tahap perhitungan
yaitu
- Perhitungan maju untuk menghitung error antara
output actual dan target
- Perhitungan mundur yang memprogasikan balik
error tersebut untuk memperbaiki bobot-bobot
sinaptik pada semua neuron yang ada
7. Algoritma Pelatihan Backpropagation dengan satu layer
tersembunyi dan dengan menggunakan fungsi aktivasi
sigmoid biner
Langkah 0 : Inisialisasi semua bobot dengan bilangan acak
kecil.
Langkah 1 : Jika kondisi penghentian belum terpenuhi,
lakukan langkah 2 sampai dengan 8.
Langkah 2: Untuk setiap pasang data pelatihan, lakukan
langkah 3 sampai dengan 8
1
Y1
Y2
Ym
Z1
Z2
Zp
1
X1
X2
Xn
V10
V20Vp0
V11
Vp1
V21
V12
Vm2
V22
V1n
Vpn
V2m
W10W20
Wm0
W11
Wm1
W2
1
W12
Wm2
W22
W1p
Wmp
W2p
8. Fase I: Perhitungan maju (feedforward)
Langkah 3
Tiap unit masukkan menerima sinyal dan meneruskan ke unit tersembunyi
Langkah 4
Hitung semua keluaran di unit tersembunyi (Zj):
1
Y1
Y2
Ym
Z1
Z2
Zp
1
X1
X2
Xn
V10
V20Vp0
V11
Vp1
V21
V12
Vm2
V22
V1n
Vpn
V2m
W1
0
W20
Wm0
W11
Wm1
W2
1
W12
Wm2
W22
W1p
Wmp
W2p
9. Langkah 5
Hitung semua jaringan di unit keluaran (yk)
1
Y1
Y2
Ym
Z1
Z2
Zp
1
X1
X2
Xn
V10
V20Vp0
V11
Vp1
V21
V12
Vm2
V22
V1n
Vpn
V2m
W1
0
W20
Wm0
W11
Wm1
W2
1
W12
Wm2
W22
W1p
Wmp
W2p
10. Fase II : Perhitungan mundur (Backward)
Langkah 6
Hitung factor unit keluaran berdasarkan kesalahan setiap unit
keluaran yk (k=1,2,3….)
k=(tk-yk) f’(y_netk)= (tk-yk) yk (1-yk)
k merupakan unit kesalahan yang akan dipakai dalam perubahan
bobot layer dibawahnya (lankah 7)
Hitung suku perubahan bobot Wkj dengan laju perubahan α
Δwkj= α k zj ; k=1,2,3,…,m ; j=0,1,2,…,p
1
Y1
Y2
Ym
Z1
Z2
Zp
1
X1
X2
Xn
V10
V20Vp0
V11
Vp1
V21
V12
Vm2
V22
V1n
Vpn
V2m
W1
0
W20
Wm0
W11
Wm1
W2
1
W12
Wm2
W22
W1p
Wmp
W2p
11. Langkah 7
Hitung factor unit tersembunyi berdasarkan kesalahan di setiap unit tersembunyi
zj (j=1,2,3,…,p)
Faktor unit tersembunyi
j = _netj f’(z_netj)= _netj zj (1-zz)
Hitung suku perubahan bobot vji
Δvji=α jxi ; j=1,2,…,p ; i=0,1,2,…,n
1
Y1
Y2
Ym
Z1
Z2
Zp
1
X1
X2
Xn
V10
V20Vp0
V11
Vp1
V21
V12
Vm2
V22
V1n
Vpn
V2m
W1
0
W20
Wm0
W11
Wm1
W2
1
W12
Wm2
W22
W1p
Wmp
W2p
12. Fase III : Perubahan Bobot
Langkah 8
Perubahan bobot garis yang menuju unit keluaran
wkj (baru)= wkj (lama) + Δwkj
Perubahan bobot garis yang menuju ke unit tersembunyi
Vji (baru)= vji (lama) + Δvji
1
Y1
Y2
Ym
Z1
Z2
Zp
1
X1
X2
Xn
V10
V20Vp0
V11
Vp1
V21
V12
Vm2
V22
V1n
Vpn
V2m
W1
0
W20
Wm0
W11
Wm1
W2
1
W12
Wm2
W22
W1p
Wmp
W2p
13. Laju pemahaman di simbolkan dengan α
Laju pemahaman menentukan lama iterasi
Nilai dari α diantara 0 sd 1
Semakin besar nilai α semakin cepat lama iterasi
Akan tetapi jika terlalu besar akan merusak pola, sehingga justru akan
lebih lama iterasinya
14. Epoch yaitu satu siklus pelatihan yang melibatkan semua pola
Misal jika suatu arsitektur JST terdapat 4 pola masukkan dan
1 target, maka pelatihan 4 pola masukkan tersebut adalah 1
epoch