SlideShare une entreprise Scribd logo
1  sur  75
Masalah, Ruang Masalah dan
Pencarian
Ir. Ahmad Haidaroh, M.Kom.
PENGENALAN KECERDASANPENGENALAN KECERDASAN
BUATANBUATAN
( / AI
)
(2 SKS)
Ir. Ahmad Haidaroh, M.Kom.
STIKOM Artha Buana.
Artificial Intelligence
Jaringan Syaraf Tiruan (JST)
 Otak manusia berisi jutaan sel syaraf
(neuron) yang bertugas memproses
informasi
 Neuron saling berinteraksi satu sama lain
mendukung kemampuan kerja otak
manusia
 Komponen utama neuron dapat dikelompokkan
menjadi 3 bagian :
 Dendrit = bertugas menerima informasi = jalur
input bagi soma
 Badan sel (soma) = tempat pengolahan informasi,
di badan sel terdapat inti sel yang bertugas
mengolah informasi
 Akson = bertugas mengirimkan impuls-impuls
sinyal ke sel syaraf lain = jalur output bagi soma
 Antar dendrit dipertemukan dengan sinapsis
 Meniru cara kerja jaringan syaraf biologis
 Generalisasi model matematis dari pemahaman manusia:
 Pemrosesan informasi terjadi pada neuron
 Sinyal mengalir diantara sel saraf/neuron melalui suatu
sambungan penghubung
 Setiap sambungan penghubung memiliki bobot yang
bersesuaian.
 Bobot ini akan digunakan untuk menggandakan /
mengalikan sinyal yang dikirim melaluinya.
 Setiap sel syaraf akan menerapkan fungsi aktivasi
terhadap sinyal hasil penjumlahan berbobot yang
masuk kepadanya untuk menentukan sinyal
keluarannya.
( )kk
p
j
jkjk
vy
xwv
ϕ=
= ∑=0
Secara matematis:
dan
 Fungsi yang digunakan untuk mencari
rata-rata bobot dari semua elemen input.
 Bentuk sederhananya adalah dengan
mengalikan setiap nilai input (Xj) dengan
bobotnya (Wij) dan menjumlahkannya
 Diibaratkan dengan sebuah neuron yang
memonitor sinyal yang datang dari
neuron-neuron lain.
 Neuron ini menghitung penjumlahan
berbobotnya dan kemudian menentukan
sinyal untuk dikirim ke neuron-neuron
lain.
 Dipakai untuk menentukan keluaran suatu
neuron
 Merupakan fungsi yang menggambarkan
hubungan antara tingkat aktivasi internal
(summation function) yang mungkin berbentuk
linier atau nonlinear.
 Beberapa fungsi aktivasi JST diantaranya hard
limit, purelin, dan sigmoid. Yang populer
digunakan adalah fungsi sigmoid yang memiliki
beberapa varian : sigmoid logaritma, sigmoid
biner, sigmoid bipolar, sigmoid tangen.
 Hard limit memberikan batasan tegas 0
atau 1, purelin memisahkan secara linier,
sigmoid berupa fungsi smooth bernilai
antara 0 sampai dengan 1 (bila biner) atau
antara -1 sampai 1 (bila bipolar)
Hard limit function
a = 0 jika n < 0
a = 1 jika n ≥ 0
n
0
+1
-1
a = hardlim ( n )
 Dapat belajar dari pengalaman
 Algoritma untuk JST beroperasi secara langsung
dengan angka sehingga data yang tidak numerik harus
diubah menjadi data numerik.
 JST tidak diprogram untuk menghasilkan keluaran
tertentu. Semua keluaran atau kesimpulan yang ditarik
oleh jaringan didasarkan pada pengalamannya selama
mengikuti proses pembelajaran.
 Pada proses pembelajaran, ke dalam JST dimasukkan
pola-pola input (dan output) lalu jaringan akan diajari
untuk memberikan jawaban yang bisa diterima.
 Ditentukan oleh :
 Pola hubungan antar neuron (disebut
arsitektur jaringan)
 Metode penentuan bobot-bobot
sambungan (disebut dengan pelatihan
atau proses belajar jaringan)
 Fungsi aktivasi
 Pada JST, neuron-neuron akan dikumpulkan dalam
lapisan-lapisan (layer) yang disebut dengan lapisan
neuron (neuron layers).
 Neuron-neuron pada satu lapisan akan
dihubungkan dengan lapisan-lapisan sebelum dan
sesudahnya.
 Informasi yang diberikan pada jaringan syaraf akan
dirambatkan lapisan ke lapisan, mulai dari lapisan
input sampai ke lapisan output melalui lapisan
tersembunyi (hidden layer).
 Faktor terpenting untuk menentukan kelakuan suatu
neuron adalah fungsi aktivasi dan pola bobotnya.
 Umumnya neuron yang terletak pada lapisan yang
sama akan memiliki keadaan yang sama → fungsi
aktivasi yang sama.
 Bila neuron-neuron pada suatu lapisan (misal lapisan
tersembunyi) akan dihubungkan dengan neuron-
neuron pada lapisan lain (misal lapisan output) maka
setiap neuron pada lapisan tersebut (lapisan
tersembunyi) juga harus dihubungkan dengan setiap
neuron pada lapisan lainnya (lapisan output)
 Ada beberapa arsitektur jaringan syaraf,
antara lain :
 Jaringan dengan lapisan tunggal (single
layer net)
 Jaringan dengan banyak lapisan
(multilayer net)
 Jaringan dengan lapisan kompetitif
(competitive net)
 Hanya memiliki satu lapisan denganbobot-
bobot terhubung
 Jaringan ini hanya menerima input
kemudian secara langsung
akanmengolahnya menjadi output
tanpaharus melalui lapisan tersembunyi.
 Seberapa besar hubungan antara 2
neuron ditentukan oleh bobot yang
bersesuaian.
 Semua unit input akan dihubungkan
dengan setiap unit output.
 Memiliki 1 atau lebih lapisan yang terletak
diantara lapisan input dan lapisan output
 Ada lapisan bobot yang terletak antara 2
lapisan yang bersebelahan
 Jaringan dengan banyak lapisan ini dapat
menyelesaikan permasalahan yang lebih
sulit daripada lapisan tunggal, tentu saja
dengan pembelajaran yang lebih rumit
 Sekumpulan neuron bersaing untuk
mendapatkan hak menjadi aktif
 Umumnya hubungan antar neuron pada
lapisan kompetitif ini tidak diperlihatkan
pada diagram arsitektur
 Cara belajar JST :
 Ke dalam JST diinputkan informasi yang
sebelumnya telah diketahui hasil keluarannya.
 Penginputan informasi ini dilakukan lewat
node-node atau unit-unit input. Bobot-bobot
antarkoneksi dalam suatu arsitektur diberi
nilai awal dan kemudian JST dijalankan.
 Bobot-bobot ini bagi jaringan digunakan
untuk belajar dan mengingat suatu
informasi. Pengaturan bobot dilakukan
secara terus-menerus dan dengan
menggunakan kriteria tertentu sampai
diperoleh keluaran yang diharapkan.
 Hal yang ingin dicapai dengan
melatih/mengajari JST adalah untuk
mencapai keseimbangan antara
kemampuan memorisasi dan generalisasi.
 Kemampuan memorisasi = kemampuan JST
untuk memanggil kembali secara sempurna
sebuah pola yang telah dipelajari.
 Kemampuan generalisasi = adalah
kemampuan JST untuk menghasilkan respon
yang bisa diterima terhadap pola-pola input
yang serupa (namun tidak identik) dengan
pola-pola yang sebelumnya telah dipelajari.
 Pembelajaran terawasi (supervised
learning)
 Pembelajaran tak terawasi (unsupervised
learning)
 Gabungan pembelajaran terawasi dan tak
terawasi (hybrid)
 Output yang diharapkan telah diketahui
sebelumnya
 Contoh : JST untuk mengenali pasangan pola,
misalkan pada operasi AND
Input Target
0 0 0
0 1 0
1 0 0
1 1 1
 Satu pola input akan diberikan ke satu neuron pada
lapisan input
 Pola ini akan dirambatkan di sepanjang jaringan syaraf
hingga sampai ke neuron pada lapisan output
 Lapisan output ini akan membangkitkan pola output
yang akan dicocokkan dengan pola output targetnya
 Jika berbeda → error
 Jika error terlalu besar, perlu dilakukan pembelajaran
lebih banyak
 Tidak memerlukan target output
 Tidak dapat ditentukan hasil yang
diharapkan selama proses pembelajaran
 Nilai bobot disusun dalam suatu range
tertentu tergantung nilai input yang
diberikan
 Tujuannya untuk mengelompokkan unit yang
hampir sama dalam suatu area tertentu
 Merupakan kombinasi dari kedua
pembelajaran tersebut. Sebagian dari
bobot-bobotnya ditentukan melalui
pembelajaran terawasi dan sebagian
lainnya melalui pembelajaran tak terawasi.
Langkah-langkah :
1. Inisialisasi semua bobot = Wi = 0 (i=1,..,n)
2. Untuk semua vektor input s dan unit target t,
lakukan :
• Set aktivasi unit masukan Xi = Si (i=1,..,n)
• Set aktivasi unit keluaran y = t
• Perbaiki bobot menurut persamaan
• Wi (baru) = Wi(lama)+∆W
• ∆W = Xi.y
• Perbaiki bias menurut persamaan :
• b(baru) = b(lama)+y
Membedakan pola :
# o # # o o
o # o # o o
# o # # # #
(X) (L)
Bagaimana JST mengenali pola berikut :
# # o
# # o
# # #
# = 1, o = -1
X = 1, L = -1
Fungsi aktivasi :
y = 1, jika y_in >= 0
y = -1, jika y_in < 0
# o # # o o
o # o t=1 # o o t= -1
# o # # # #
Input pertama :
1 -1 1
-1 1 -1
1 -1 1
∆W = x.t, maka nilai ∆W untuk tiap input:
1 -1 1
-1 1 -1
1 -1 1
Bias = b.t = 1.1 = 1
Input kedua :
1 -1 -1
1 -1 -1
1 1 1
∆W = x.t, maka nilai ∆W untuk tiap input:
-1 1 1
-1 1 1
-1 -1 -1
Bias = b.t = 1.-1 = -1
Bobot baru :
0 0 2
-2 2 0
0 -2 0
Bias = 0
Aplikasikan bobot baru ke input 1 :
(1.0)+( -1.0)+(1.2)+(-1.-2)+(1.2)+
(-1.0)+(1.0)+(-1.-2)+(1.0) = 8
Jadi y = 1, sesuai target (t=1)
Aplikasikan bobot baru ke input 2 :
(1.0)+( -1.0)+(-1.2)+(1.-2)+(-1.2)+
(-1.0)+(1.0)+(1.-2)+(1.0) = -8
Jadi y = -1, sesuai target (t=-1)
Jadi JST sudah bisa mengenali pola
Aplikasikan ke pola yang baru :
1 1 -1
1 1 -1
1 1 1
Beri bobot yang baru : (1.0)+( -1.0)+
(-1.2)+(1.-2)+(-1.2)+ (-1.0)+(1.0)+
(1.-2)+(1.0) = -8
Jadi y = -1, dikenali sebagai L
Bentuk paling sederhana dari JST.
Digunakan untuk pengklasifikasian pola khusus
yang biasa disebut linearable separable.
Terbatas hanya untuk mengklasifikasikan dua kelas
saja.
Inputs
Thresho
ld Ө
(bias)
Outp
ut y
xp
Threshold
Ө
(bias)
Output
y
xp
Inputs
x1
x2
- 1
w1
w2
wp
vi φ(vi)
Hard
limiter
x2
x1
Kelas K2
Kelas K1
Decision boundary
w1x1 + w2x2 - Ө = 0
T
pxxxx ]...[ 21=
Vektor input:
Vektor bobot:
Vektor output:
T
pwwww ]...[ 21=
xwv T
.=
 Aturan Pembelajaran (Learning Rule)
Error e (sinyal kesalahan) dinyatakan sbb:
e = t – y
dimana :
Jika e = 1 , maka wbaru
= wlama
+ x ( 1 )
Jika e = -1 , maka wbaru
= wlama
– x ( 2 )
Jika e = 0 , maka wbaru
= wlama
( 3 )
wbaru
= wlama
+ e.x
bbaru
= blama
+ e
e = error
t = target
x = input
y = output
w = bobot
Membedakan :
• Ada 3 input yaitu x1,x2 dan x3
• Ada 3 bobot yaitu w1, w2 dan w3
• Tentukan bobot secara random, misal :
w = [0.5 0.5 0.5]
Σ y
x1
w1
v
x3
w3
No bias neuron
x2
w2
1. Hitung jumlah input berbobot (v)
(1*0.5)+(1*0.5)+(0*0.5) = 1
2. Fungsi Aktivasi (menggunakan hardlimit)
y = 0 jika v < 0
y = 1 jika v ≥ 0
y = hardlimit(v)
y = hardlimit(1)
Jadi y = 1, sesuai target t = 1 untuk input pertama
3.Cek bobot apakah cocok dengan input kedua [0 1 1]
dengan t=0, bobot [0.5 0.5 0.5]
v = (0.5*0)+(0.5*1)+(0.5*1) = 1
y = hardlimit(1)
y = 1, tidak sesuai dengan target, t = 0, maka harus
dilakukan perubahan bobot
5. Hitung y dengan bobot yang baru
v = (0.5*0)+(-0.5*1)+(-0.5*1) = -1
y = hardlimit(-1) = 0, sesuai dengan t=0
6. Cek bobot yang baru dengan input pertama
v = (0.5*1)+(-0.5*1)+(-0.5*0) = 0
y = hardlimit(0) = 1, sesuai dengan t=1
7. Jika semua input sudah diklasifikasi dengan
benar, tidak perlu ada perubahan pada bobot
sehingga digunakan aturan sbb:
Jika t = y, maka wbaru
= wlama






=





−
=






=




−
=






=





= 0,
1
0
0,
2
1
1,
2
1
332211 txtxtx
Test Problem
Σ y
x1
w1
v
x2
w2
No bias neuron
Kita pilih bobot secara random, misalnya:
wT
= [ 1 -0.8 ]
Masukkan input x1 ke dalam jaringan dan output:
y = hardlim (wT
. x1 )
Input x1tidak benar karena t1 = 1
[ ] 0)6.0(hardlim
2
1
8.01hardlim =−=













−=y
p1
p2
n ≥ 1
n < 1
Perlu diputar berlawanan
arah dengan jarum jam
12
3
1
WT
Cara mencari decision boundary:
Jika,
n = wp + b = 0
n = w1
.x1
+ w2
. x2
= 0
Maka,
x1
– 0.8 x2
= 0
5x1
– 4x2
= 0
Jika x2
= 1  x1
= 0.8
Jika x1
=1  x2
= 1.25
Jika t = 1, sedangkan y = 0, maka:
wbaru
= wlama
+ x
Tes bobot baru ke jaringan:
Hasil output y sesuai dengan target output = 1






=





+





−
=+=
2.1
2
2
1
8.0
1
1xww lamabaru
[ ] 1)4.4(hardlim
2
1
2.12hardlim ==













=y
p1
p2
n ≥ 1
n < 1
1
WT
12
3
Cara mencari decision boundary:
Jika,
n = wp + b = 0
w1
.x1
+ w2
. x2
= 0
Maka,
2x1
+ 1.2 x2
= 0
Jika,
x2
= 1  x1
= - 1.2/2
x1
= - 0.6
Tes input kedua:
y = hardlim (wT
. x2 )
Input x2 tidak benar karena t2 =0
[ ] 1)4.0(hardlim
2
1
2.12hardlim ==












−
=y
Jika t = 0, sedangkan y = 1, maka:
wbaru
= wlama
- x
Tes bobot baru ke jaringan:
Hasil output y sesuai dengan target output = 0






−
=




−
−





=−=
8.0
3
2
1
2.1
2
2xww lamabaru
[ ] 0)6.4(hardlim
2
1
8.03hardlim =−=












−
−=y
Cara mencari decision boundary:
Jika,
n = wp + b = 0
w1
.x1
+ w2
. x2
= 0
Maka,
3x1
– 0.8 x2
= 0
Jika,
x2
= 2  x1
= 1.6/3
x1
= 8/15
p1
p2
n ≥ 1
n < 1
Perlu diputar berlawanan
arah dengan jarum jam
1WT
12
3
Tes input ketiga:
y = hardlim (wT
. x3 )
Input x3 tidak benar karena t3 =0
[ ] 1)8.0(hardlim
1
0
8.03hardlim ==













−
−=y
Jika t = 0, sedangkan y = 1, maka:
wbaru
= wlama
- x
Tes bobot baru ke jaringan:
Hasil output y sesuai dengan target output = 0






=





−
−





−
=−=
2.0
3
1
0
8.0
3
3xww lamabaru
[ ] 0)2.0(hardlim
1
0
2.03hardlim =−=













−
=y
Cara mencari decision boundary:
Jika,
n = wp + b = 0
w1
.x1
+ w2
. x2
= 0
Maka,
3x1
+ 0.2 x2
= 0
Jika,
x2
= 1  x1
= -0.2/3
x1
= -1/15
p1
p2
n ≥ 1
n < 1 1
WT
12
3
Modul 8 - Jaringan Syaraf Tiruan (JST)
Modul 8 - Jaringan Syaraf Tiruan (JST)

Contenu connexe

Tendances

Iterasi gauss seidel
Iterasi gauss seidelIterasi gauss seidel
Iterasi gauss seidel
Nur Fadzri
 
Pengolahan Sinyal Digital - Slide week 12 - konvolusi circular
Pengolahan Sinyal Digital - Slide week 12 - konvolusi circularPengolahan Sinyal Digital - Slide week 12 - konvolusi circular
Pengolahan Sinyal Digital - Slide week 12 - konvolusi circular
Beny Nugraha
 
Persamaan garis lurus(Geometri Analitik Ruang)
Persamaan garis lurus(Geometri Analitik Ruang)Persamaan garis lurus(Geometri Analitik Ruang)
Persamaan garis lurus(Geometri Analitik Ruang)
Dyas Arientiyya
 
Penyederhanaan Fungsi Boolean
Penyederhanaan Fungsi BooleanPenyederhanaan Fungsi Boolean
Penyederhanaan Fungsi Boolean
Fahrul Razi
 
Bab 5 penyederhanaan fungsi boolean
Bab 5 penyederhanaan fungsi booleanBab 5 penyederhanaan fungsi boolean
Bab 5 penyederhanaan fungsi boolean
Cliquerz Javaneze
 
Contoh peyelesaian logika fuzzy
Contoh peyelesaian logika fuzzyContoh peyelesaian logika fuzzy
Contoh peyelesaian logika fuzzy
Zaenal Khayat
 
Metode pencarian heuristik
Metode pencarian heuristikMetode pencarian heuristik
Metode pencarian heuristik
Baguss Chandrass
 

Tendances (20)

Ruang Hasil kali Dalam ( Aljabar Linear Elementer )
Ruang Hasil kali Dalam ( Aljabar Linear Elementer )Ruang Hasil kali Dalam ( Aljabar Linear Elementer )
Ruang Hasil kali Dalam ( Aljabar Linear Elementer )
 
Contoh soal dan penyelesaian metode biseksi
Contoh soal dan penyelesaian metode biseksiContoh soal dan penyelesaian metode biseksi
Contoh soal dan penyelesaian metode biseksi
 
Iterasi gauss seidel
Iterasi gauss seidelIterasi gauss seidel
Iterasi gauss seidel
 
Pengolahan Sinyal Digital - Slide week 12 - konvolusi circular
Pengolahan Sinyal Digital - Slide week 12 - konvolusi circularPengolahan Sinyal Digital - Slide week 12 - konvolusi circular
Pengolahan Sinyal Digital - Slide week 12 - konvolusi circular
 
Integrasi numerik metode riemann
Integrasi numerik metode riemannIntegrasi numerik metode riemann
Integrasi numerik metode riemann
 
Persamaan garis lurus(Geometri Analitik Ruang)
Persamaan garis lurus(Geometri Analitik Ruang)Persamaan garis lurus(Geometri Analitik Ruang)
Persamaan garis lurus(Geometri Analitik Ruang)
 
Penyederhanaan Fungsi Boolean
Penyederhanaan Fungsi BooleanPenyederhanaan Fungsi Boolean
Penyederhanaan Fungsi Boolean
 
nilai eigen dan vektor eigen
nilai eigen dan vektor eigennilai eigen dan vektor eigen
nilai eigen dan vektor eigen
 
Bab 5 penyederhanaan fungsi boolean
Bab 5 penyederhanaan fungsi booleanBab 5 penyederhanaan fungsi boolean
Bab 5 penyederhanaan fungsi boolean
 
Contoh peyelesaian logika fuzzy
Contoh peyelesaian logika fuzzyContoh peyelesaian logika fuzzy
Contoh peyelesaian logika fuzzy
 
8 kuantisasi
8 kuantisasi8 kuantisasi
8 kuantisasi
 
Contoh Soal Huffman Code
Contoh Soal Huffman CodeContoh Soal Huffman Code
Contoh Soal Huffman Code
 
Model Jaringan Hopfield
Model Jaringan HopfieldModel Jaringan Hopfield
Model Jaringan Hopfield
 
Jaringan perceptron
Jaringan perceptronJaringan perceptron
Jaringan perceptron
 
Dioda
DiodaDioda
Dioda
 
Metode pencarian heuristik
Metode pencarian heuristikMetode pencarian heuristik
Metode pencarian heuristik
 
1 sinyal
1  sinyal1  sinyal
1 sinyal
 
Pertemuan 6 & 7 ars. gerbang logika
Pertemuan 6 & 7 ars. gerbang logikaPertemuan 6 & 7 ars. gerbang logika
Pertemuan 6 & 7 ars. gerbang logika
 
Deret Fourier
Deret FourierDeret Fourier
Deret Fourier
 
Matematika diskrit tree
Matematika diskrit  treeMatematika diskrit  tree
Matematika diskrit tree
 

En vedette

Pengenalan jaringan-syaraf-tiruan
Pengenalan jaringan-syaraf-tiruanPengenalan jaringan-syaraf-tiruan
Pengenalan jaringan-syaraf-tiruan
rrahmad_14
 
Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)
Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)
Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)
Siti Julaiha
 
Makalah teknik simulasi dan pemodelan
Makalah teknik simulasi dan pemodelanMakalah teknik simulasi dan pemodelan
Makalah teknik simulasi dan pemodelan
Nayla Tsauraya
 

En vedette (20)

Pengenalan jaringan-syaraf-tiruan
Pengenalan jaringan-syaraf-tiruanPengenalan jaringan-syaraf-tiruan
Pengenalan jaringan-syaraf-tiruan
 
Contoh Program Jaringan Syaraf Tiruan Sederhana
Contoh Program Jaringan Syaraf Tiruan SederhanaContoh Program Jaringan Syaraf Tiruan Sederhana
Contoh Program Jaringan Syaraf Tiruan Sederhana
 
Makalah Jaringan Syaraf Tiruan
Makalah Jaringan Syaraf TiruanMakalah Jaringan Syaraf Tiruan
Makalah Jaringan Syaraf Tiruan
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruan
 
Hebb, perceptro dan adaline
Hebb, perceptro dan adalineHebb, perceptro dan adaline
Hebb, perceptro dan adaline
 
Neuron Mc Culloch Pitts dan Hebb
Neuron Mc Culloch Pitts dan HebbNeuron Mc Culloch Pitts dan Hebb
Neuron Mc Culloch Pitts dan Hebb
 
Jaringan Komputer
Jaringan  KomputerJaringan  Komputer
Jaringan Komputer
 
Jaringan Syaraf Tiruan
Jaringan Syaraf TiruanJaringan Syaraf Tiruan
Jaringan Syaraf Tiruan
 
Adaline madaline
Adaline madalineAdaline madaline
Adaline madaline
 
Bab v histogram
Bab v histogramBab v histogram
Bab v histogram
 
Jaringan syaraf sederhana untuk klasifikasi pola
Jaringan syaraf sederhana untuk klasifikasi polaJaringan syaraf sederhana untuk klasifikasi pola
Jaringan syaraf sederhana untuk klasifikasi pola
 
Makalah jaringan syaraf dan darah
Makalah jaringan syaraf dan darah Makalah jaringan syaraf dan darah
Makalah jaringan syaraf dan darah
 
Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)
Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)
Aplikasi jaringan syaraf tiruan dengan program matlab (bp, ga, dan som)
 
himpunan Fuzzy
himpunan Fuzzyhimpunan Fuzzy
himpunan Fuzzy
 
Jaringan perceptron & matlab
Jaringan perceptron & matlabJaringan perceptron & matlab
Jaringan perceptron & matlab
 
Penerapan Metode Backpropagation Neural Network untuk Memprediksi Produksi Air
Penerapan Metode Backpropagation Neural Network untuk Memprediksi Produksi AirPenerapan Metode Backpropagation Neural Network untuk Memprediksi Produksi Air
Penerapan Metode Backpropagation Neural Network untuk Memprediksi Produksi Air
 
Sistem Cerdas
Sistem CerdasSistem Cerdas
Sistem Cerdas
 
Belajar mudah algoritma data mining c4.5
Belajar mudah algoritma data mining c4.5Belajar mudah algoritma data mining c4.5
Belajar mudah algoritma data mining c4.5
 
Makalah teknik simulasi dan pemodelan
Makalah teknik simulasi dan pemodelanMakalah teknik simulasi dan pemodelan
Makalah teknik simulasi dan pemodelan
 
Metode belajar hebbian supervised
Metode belajar hebbian supervisedMetode belajar hebbian supervised
Metode belajar hebbian supervised
 

Similaire à Modul 8 - Jaringan Syaraf Tiruan (JST)

Dw 9-intelijensi buatan
Dw 9-intelijensi buatanDw 9-intelijensi buatan
Dw 9-intelijensi buatan
Dian Sari
 
Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1
aereal
 
Pcd 013 - jaringan syaraf buatan
Pcd   013 - jaringan syaraf buatanPcd   013 - jaringan syaraf buatan
Pcd 013 - jaringan syaraf buatan
Febriyani Syafri
 

Similaire à Modul 8 - Jaringan Syaraf Tiruan (JST) (20)

pertemuan-11-jst.ppt
pertemuan-11-jst.pptpertemuan-11-jst.ppt
pertemuan-11-jst.ppt
 
Dw 9-intelijensi buatan
Dw 9-intelijensi buatanDw 9-intelijensi buatan
Dw 9-intelijensi buatan
 
05c neural network-mlp
05c neural network-mlp05c neural network-mlp
05c neural network-mlp
 
JST.ppt
JST.pptJST.ppt
JST.ppt
 
Jaringan syaraf tiruan
Jaringan syaraf tiruanJaringan syaraf tiruan
Jaringan syaraf tiruan
 
2a-JST-McCulloch-Pitts-Neuron.pdf
2a-JST-McCulloch-Pitts-Neuron.pdf2a-JST-McCulloch-Pitts-Neuron.pdf
2a-JST-McCulloch-Pitts-Neuron.pdf
 
Jaringan-Syaraf-Tiruan.ppt
Jaringan-Syaraf-Tiruan.pptJaringan-Syaraf-Tiruan.ppt
Jaringan-Syaraf-Tiruan.ppt
 
Machine Learning Diskusi 12.pdf
Machine Learning Diskusi 12.pdfMachine Learning Diskusi 12.pdf
Machine Learning Diskusi 12.pdf
 
7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx
 
Ppt neuralnet
Ppt neuralnetPpt neuralnet
Ppt neuralnet
 
Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1
 
Kecerdasan Buatan Diskusi 5.docx
Kecerdasan Buatan Diskusi 5.docxKecerdasan Buatan Diskusi 5.docx
Kecerdasan Buatan Diskusi 5.docx
 
Pertemuan 14 Jaringan Syaraf (Neural Network)
Pertemuan 14 Jaringan Syaraf (Neural Network)Pertemuan 14 Jaringan Syaraf (Neural Network)
Pertemuan 14 Jaringan Syaraf (Neural Network)
 
UTS JST 2014/2015
UTS JST 2014/2015UTS JST 2014/2015
UTS JST 2014/2015
 
materi mg 2 - Jaringan Saraf Tiruan.pdf
materi mg 2 -  Jaringan Saraf Tiruan.pdfmateri mg 2 -  Jaringan Saraf Tiruan.pdf
materi mg 2 - Jaringan Saraf Tiruan.pdf
 
Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)Jaringan Kohonen (Unsupervised Learning)
Jaringan Kohonen (Unsupervised Learning)
 
Pcd 013 - jaringan syaraf buatan
Pcd   013 - jaringan syaraf buatanPcd   013 - jaringan syaraf buatan
Pcd 013 - jaringan syaraf buatan
 
Radial Basis Function Network (RBFN)
Radial Basis Function Network (RBFN)Radial Basis Function Network (RBFN)
Radial Basis Function Network (RBFN)
 
Pertemuan 5_Jaringan Syaraf Tiruan Upload.pptx
Pertemuan 5_Jaringan Syaraf Tiruan Upload.pptxPertemuan 5_Jaringan Syaraf Tiruan Upload.pptx
Pertemuan 5_Jaringan Syaraf Tiruan Upload.pptx
 
Penggunaan algoritma genetika kusumoputro dan irwanto
Penggunaan algoritma genetika kusumoputro dan irwantoPenggunaan algoritma genetika kusumoputro dan irwanto
Penggunaan algoritma genetika kusumoputro dan irwanto
 

Plus de ahmad haidaroh

Plus de ahmad haidaroh (20)

Materi 7 Context Free Grammar
Materi 7   Context Free Grammar Materi 7   Context Free Grammar
Materi 7 Context Free Grammar
 
8 Rekursif
8 Rekursif8 Rekursif
8 Rekursif
 
6 ANTRIAN - QUEUE
6 ANTRIAN - QUEUE6 ANTRIAN - QUEUE
6 ANTRIAN - QUEUE
 
5 STACK
5 STACK5 STACK
5 STACK
 
4 Adt
4 Adt4 Adt
4 Adt
 
3 Linked List
3   Linked List3   Linked List
3 Linked List
 
2 Array
2 Array2 Array
2 Array
 
Materi 4 Regular Expression
Materi 4   Regular ExpressionMateri 4   Regular Expression
Materi 4 Regular Expression
 
Materi 3 Finite State Automata
Materi 3   Finite State AutomataMateri 3   Finite State Automata
Materi 3 Finite State Automata
 
Materi 3 Finite State Automata
Materi 3   Finite State AutomataMateri 3   Finite State Automata
Materi 3 Finite State Automata
 
Presentasi OSPEK 2018
Presentasi OSPEK 2018Presentasi OSPEK 2018
Presentasi OSPEK 2018
 
Pertemuan 4 Dioda1
Pertemuan 4   Dioda1Pertemuan 4   Dioda1
Pertemuan 4 Dioda1
 
Pertemuan 4 Aljabar Boole
Pertemuan 4   Aljabar Boole Pertemuan 4   Aljabar Boole
Pertemuan 4 Aljabar Boole
 
Pertemuan 2&3 - Dasar2 Keamanan Encyption
Pertemuan 2&3 - Dasar2 Keamanan EncyptionPertemuan 2&3 - Dasar2 Keamanan Encyption
Pertemuan 2&3 - Dasar2 Keamanan Encyption
 
Multiplekser - Demultiplekser - Pertemuan 7
Multiplekser - Demultiplekser - Pertemuan 7Multiplekser - Demultiplekser - Pertemuan 7
Multiplekser - Demultiplekser - Pertemuan 7
 
Pertemuan 3a Rangkaian Aritmatik-Half n Full Adder
Pertemuan 3a   Rangkaian Aritmatik-Half n Full AdderPertemuan 3a   Rangkaian Aritmatik-Half n Full Adder
Pertemuan 3a Rangkaian Aritmatik-Half n Full Adder
 
Pertemuan 6 Penyederhanaan RL-Karnaugh Map
Pertemuan 6   Penyederhanaan RL-Karnaugh MapPertemuan 6   Penyederhanaan RL-Karnaugh Map
Pertemuan 6 Penyederhanaan RL-Karnaugh Map
 
Pertemuan 5a gerbang kombinasi-maxtem-minterm
Pertemuan 5a   gerbang kombinasi-maxtem-mintermPertemuan 5a   gerbang kombinasi-maxtem-minterm
Pertemuan 5a gerbang kombinasi-maxtem-minterm
 
Pertemuan 5 gerbang logika dasar n bentukan
Pertemuan 5   gerbang logika dasar n bentukanPertemuan 5   gerbang logika dasar n bentukan
Pertemuan 5 gerbang logika dasar n bentukan
 
Aritmatika Biner - Pertemuan 3
Aritmatika Biner - Pertemuan 3Aritmatika Biner - Pertemuan 3
Aritmatika Biner - Pertemuan 3
 

Dernier

Latsol TWK Nasionalisme untuk masuk CPNS
Latsol TWK Nasionalisme untuk masuk CPNSLatsol TWK Nasionalisme untuk masuk CPNS
Latsol TWK Nasionalisme untuk masuk CPNS
dheaprs
 
aksi nyata penyebaran pemahaman merdeka belajar
aksi nyata penyebaran pemahaman merdeka belajaraksi nyata penyebaran pemahaman merdeka belajar
aksi nyata penyebaran pemahaman merdeka belajar
HafidRanggasi
 

Dernier (20)

Latsol TWK Nasionalisme untuk masuk CPNS
Latsol TWK Nasionalisme untuk masuk CPNSLatsol TWK Nasionalisme untuk masuk CPNS
Latsol TWK Nasionalisme untuk masuk CPNS
 
PPT Penjumlahan Bersusun Kelas 1 Sekolah Dasar
PPT Penjumlahan Bersusun Kelas 1 Sekolah DasarPPT Penjumlahan Bersusun Kelas 1 Sekolah Dasar
PPT Penjumlahan Bersusun Kelas 1 Sekolah Dasar
 
Modul Projek - Batik Ecoprint - Fase B.pdf
Modul Projek  - Batik Ecoprint - Fase B.pdfModul Projek  - Batik Ecoprint - Fase B.pdf
Modul Projek - Batik Ecoprint - Fase B.pdf
 
aksi nyata penyebaran pemahaman merdeka belajar
aksi nyata penyebaran pemahaman merdeka belajaraksi nyata penyebaran pemahaman merdeka belajar
aksi nyata penyebaran pemahaman merdeka belajar
 
aksi nyata sosialisasi Profil Pelajar Pancasila.pdf
aksi nyata sosialisasi  Profil Pelajar Pancasila.pdfaksi nyata sosialisasi  Profil Pelajar Pancasila.pdf
aksi nyata sosialisasi Profil Pelajar Pancasila.pdf
 
Pendidikan-Bahasa-Indonesia-di-SD MODUL 3 .pptx
Pendidikan-Bahasa-Indonesia-di-SD MODUL 3 .pptxPendidikan-Bahasa-Indonesia-di-SD MODUL 3 .pptx
Pendidikan-Bahasa-Indonesia-di-SD MODUL 3 .pptx
 
vIDEO kelayakan berita untuk mahasiswa.ppsx
vIDEO kelayakan berita untuk mahasiswa.ppsxvIDEO kelayakan berita untuk mahasiswa.ppsx
vIDEO kelayakan berita untuk mahasiswa.ppsx
 
CAPACITY BUILDING Materi Saat di Lokakarya 7
CAPACITY BUILDING Materi Saat di Lokakarya 7CAPACITY BUILDING Materi Saat di Lokakarya 7
CAPACITY BUILDING Materi Saat di Lokakarya 7
 
PELAKSANAAN + Link-Link MATERI Training_ "Effective INVENTORY & WAREHOUSING...
PELAKSANAAN  + Link-Link MATERI Training_ "Effective INVENTORY &  WAREHOUSING...PELAKSANAAN  + Link-Link MATERI Training_ "Effective INVENTORY &  WAREHOUSING...
PELAKSANAAN + Link-Link MATERI Training_ "Effective INVENTORY & WAREHOUSING...
 
ppt-modul-6-pend-seni-di sd kelompok 2 ppt
ppt-modul-6-pend-seni-di sd kelompok 2 pptppt-modul-6-pend-seni-di sd kelompok 2 ppt
ppt-modul-6-pend-seni-di sd kelompok 2 ppt
 
Modul Ajar Pendidikan Pancasila Kelas 5 Fase C
Modul Ajar Pendidikan Pancasila Kelas 5 Fase CModul Ajar Pendidikan Pancasila Kelas 5 Fase C
Modul Ajar Pendidikan Pancasila Kelas 5 Fase C
 
Prakarsa Perubahan ATAP (Awal - Tantangan - Aksi - Perubahan)
Prakarsa Perubahan ATAP (Awal - Tantangan - Aksi - Perubahan)Prakarsa Perubahan ATAP (Awal - Tantangan - Aksi - Perubahan)
Prakarsa Perubahan ATAP (Awal - Tantangan - Aksi - Perubahan)
 
UT PGSD PDGK4103 MODUL 2 STRUKTUR TUBUH Pada Makhluk Hidup
UT PGSD PDGK4103 MODUL 2 STRUKTUR TUBUH Pada Makhluk HidupUT PGSD PDGK4103 MODUL 2 STRUKTUR TUBUH Pada Makhluk Hidup
UT PGSD PDGK4103 MODUL 2 STRUKTUR TUBUH Pada Makhluk Hidup
 
PELAKSANAAN + Link-Link MATERI Training_ "Effective INVENTORY & WAREHOUSING M...
PELAKSANAAN + Link-Link MATERI Training_ "Effective INVENTORY & WAREHOUSING M...PELAKSANAAN + Link-Link MATERI Training_ "Effective INVENTORY & WAREHOUSING M...
PELAKSANAAN + Link-Link MATERI Training_ "Effective INVENTORY & WAREHOUSING M...
 
(NEW) Template Presentasi UGM 2 (2).pptx
(NEW) Template Presentasi UGM 2 (2).pptx(NEW) Template Presentasi UGM 2 (2).pptx
(NEW) Template Presentasi UGM 2 (2).pptx
 
PEMANASAN GLOBAL - MATERI KELAS X MA.pptx
PEMANASAN GLOBAL - MATERI KELAS X MA.pptxPEMANASAN GLOBAL - MATERI KELAS X MA.pptx
PEMANASAN GLOBAL - MATERI KELAS X MA.pptx
 
presentasi lembaga negara yang ada di indonesia
presentasi lembaga negara yang ada di indonesiapresentasi lembaga negara yang ada di indonesia
presentasi lembaga negara yang ada di indonesia
 
MATEMATIKA EKONOMI MATERI ANUITAS DAN NILAI ANUITAS
MATEMATIKA EKONOMI MATERI ANUITAS DAN NILAI ANUITASMATEMATIKA EKONOMI MATERI ANUITAS DAN NILAI ANUITAS
MATEMATIKA EKONOMI MATERI ANUITAS DAN NILAI ANUITAS
 
POWER POINT MODUL 1 PEBI4223 (PENDIDIKAN LINGKUNGAN HIDUP)
POWER POINT MODUL 1 PEBI4223 (PENDIDIKAN LINGKUNGAN HIDUP)POWER POINT MODUL 1 PEBI4223 (PENDIDIKAN LINGKUNGAN HIDUP)
POWER POINT MODUL 1 PEBI4223 (PENDIDIKAN LINGKUNGAN HIDUP)
 
Sosialisasi PPDB SulSel tahun 2024 di Sulawesi Selatan
Sosialisasi PPDB SulSel tahun 2024 di Sulawesi SelatanSosialisasi PPDB SulSel tahun 2024 di Sulawesi Selatan
Sosialisasi PPDB SulSel tahun 2024 di Sulawesi Selatan
 

Modul 8 - Jaringan Syaraf Tiruan (JST)

  • 1. Masalah, Ruang Masalah dan Pencarian Ir. Ahmad Haidaroh, M.Kom. PENGENALAN KECERDASANPENGENALAN KECERDASAN BUATANBUATAN ( / AI ) (2 SKS) Ir. Ahmad Haidaroh, M.Kom. STIKOM Artha Buana. Artificial Intelligence
  • 3.  Otak manusia berisi jutaan sel syaraf (neuron) yang bertugas memproses informasi  Neuron saling berinteraksi satu sama lain mendukung kemampuan kerja otak manusia
  • 4.
  • 5.  Komponen utama neuron dapat dikelompokkan menjadi 3 bagian :  Dendrit = bertugas menerima informasi = jalur input bagi soma  Badan sel (soma) = tempat pengolahan informasi, di badan sel terdapat inti sel yang bertugas mengolah informasi  Akson = bertugas mengirimkan impuls-impuls sinyal ke sel syaraf lain = jalur output bagi soma  Antar dendrit dipertemukan dengan sinapsis
  • 6.  Meniru cara kerja jaringan syaraf biologis  Generalisasi model matematis dari pemahaman manusia:  Pemrosesan informasi terjadi pada neuron  Sinyal mengalir diantara sel saraf/neuron melalui suatu sambungan penghubung  Setiap sambungan penghubung memiliki bobot yang bersesuaian.  Bobot ini akan digunakan untuk menggandakan / mengalikan sinyal yang dikirim melaluinya.  Setiap sel syaraf akan menerapkan fungsi aktivasi terhadap sinyal hasil penjumlahan berbobot yang masuk kepadanya untuk menentukan sinyal keluarannya.
  • 7.
  • 8.
  • 9.
  • 11.  Fungsi yang digunakan untuk mencari rata-rata bobot dari semua elemen input.  Bentuk sederhananya adalah dengan mengalikan setiap nilai input (Xj) dengan bobotnya (Wij) dan menjumlahkannya
  • 12.  Diibaratkan dengan sebuah neuron yang memonitor sinyal yang datang dari neuron-neuron lain.  Neuron ini menghitung penjumlahan berbobotnya dan kemudian menentukan sinyal untuk dikirim ke neuron-neuron lain.
  • 13.  Dipakai untuk menentukan keluaran suatu neuron  Merupakan fungsi yang menggambarkan hubungan antara tingkat aktivasi internal (summation function) yang mungkin berbentuk linier atau nonlinear.  Beberapa fungsi aktivasi JST diantaranya hard limit, purelin, dan sigmoid. Yang populer digunakan adalah fungsi sigmoid yang memiliki beberapa varian : sigmoid logaritma, sigmoid biner, sigmoid bipolar, sigmoid tangen.
  • 14.  Hard limit memberikan batasan tegas 0 atau 1, purelin memisahkan secara linier, sigmoid berupa fungsi smooth bernilai antara 0 sampai dengan 1 (bila biner) atau antara -1 sampai 1 (bila bipolar)
  • 15. Hard limit function a = 0 jika n < 0 a = 1 jika n ≥ 0 n 0 +1 -1 a = hardlim ( n )
  • 16.  Dapat belajar dari pengalaman  Algoritma untuk JST beroperasi secara langsung dengan angka sehingga data yang tidak numerik harus diubah menjadi data numerik.  JST tidak diprogram untuk menghasilkan keluaran tertentu. Semua keluaran atau kesimpulan yang ditarik oleh jaringan didasarkan pada pengalamannya selama mengikuti proses pembelajaran.  Pada proses pembelajaran, ke dalam JST dimasukkan pola-pola input (dan output) lalu jaringan akan diajari untuk memberikan jawaban yang bisa diterima.
  • 17.  Ditentukan oleh :  Pola hubungan antar neuron (disebut arsitektur jaringan)  Metode penentuan bobot-bobot sambungan (disebut dengan pelatihan atau proses belajar jaringan)  Fungsi aktivasi
  • 18.  Pada JST, neuron-neuron akan dikumpulkan dalam lapisan-lapisan (layer) yang disebut dengan lapisan neuron (neuron layers).  Neuron-neuron pada satu lapisan akan dihubungkan dengan lapisan-lapisan sebelum dan sesudahnya.  Informasi yang diberikan pada jaringan syaraf akan dirambatkan lapisan ke lapisan, mulai dari lapisan input sampai ke lapisan output melalui lapisan tersembunyi (hidden layer).
  • 19.
  • 20.  Faktor terpenting untuk menentukan kelakuan suatu neuron adalah fungsi aktivasi dan pola bobotnya.  Umumnya neuron yang terletak pada lapisan yang sama akan memiliki keadaan yang sama → fungsi aktivasi yang sama.  Bila neuron-neuron pada suatu lapisan (misal lapisan tersembunyi) akan dihubungkan dengan neuron- neuron pada lapisan lain (misal lapisan output) maka setiap neuron pada lapisan tersebut (lapisan tersembunyi) juga harus dihubungkan dengan setiap neuron pada lapisan lainnya (lapisan output)
  • 21.  Ada beberapa arsitektur jaringan syaraf, antara lain :  Jaringan dengan lapisan tunggal (single layer net)  Jaringan dengan banyak lapisan (multilayer net)  Jaringan dengan lapisan kompetitif (competitive net)
  • 22.  Hanya memiliki satu lapisan denganbobot- bobot terhubung  Jaringan ini hanya menerima input kemudian secara langsung akanmengolahnya menjadi output tanpaharus melalui lapisan tersembunyi.
  • 23.  Seberapa besar hubungan antara 2 neuron ditentukan oleh bobot yang bersesuaian.  Semua unit input akan dihubungkan dengan setiap unit output.
  • 24.
  • 25.  Memiliki 1 atau lebih lapisan yang terletak diantara lapisan input dan lapisan output  Ada lapisan bobot yang terletak antara 2 lapisan yang bersebelahan  Jaringan dengan banyak lapisan ini dapat menyelesaikan permasalahan yang lebih sulit daripada lapisan tunggal, tentu saja dengan pembelajaran yang lebih rumit
  • 26.
  • 27.  Sekumpulan neuron bersaing untuk mendapatkan hak menjadi aktif  Umumnya hubungan antar neuron pada lapisan kompetitif ini tidak diperlihatkan pada diagram arsitektur
  • 28.
  • 29.  Cara belajar JST :  Ke dalam JST diinputkan informasi yang sebelumnya telah diketahui hasil keluarannya.  Penginputan informasi ini dilakukan lewat node-node atau unit-unit input. Bobot-bobot antarkoneksi dalam suatu arsitektur diberi nilai awal dan kemudian JST dijalankan.
  • 30.  Bobot-bobot ini bagi jaringan digunakan untuk belajar dan mengingat suatu informasi. Pengaturan bobot dilakukan secara terus-menerus dan dengan menggunakan kriteria tertentu sampai diperoleh keluaran yang diharapkan.  Hal yang ingin dicapai dengan melatih/mengajari JST adalah untuk mencapai keseimbangan antara kemampuan memorisasi dan generalisasi.
  • 31.  Kemampuan memorisasi = kemampuan JST untuk memanggil kembali secara sempurna sebuah pola yang telah dipelajari.  Kemampuan generalisasi = adalah kemampuan JST untuk menghasilkan respon yang bisa diterima terhadap pola-pola input yang serupa (namun tidak identik) dengan pola-pola yang sebelumnya telah dipelajari.
  • 32.  Pembelajaran terawasi (supervised learning)  Pembelajaran tak terawasi (unsupervised learning)  Gabungan pembelajaran terawasi dan tak terawasi (hybrid)
  • 33.  Output yang diharapkan telah diketahui sebelumnya  Contoh : JST untuk mengenali pasangan pola, misalkan pada operasi AND Input Target 0 0 0 0 1 0 1 0 0 1 1 1
  • 34.  Satu pola input akan diberikan ke satu neuron pada lapisan input  Pola ini akan dirambatkan di sepanjang jaringan syaraf hingga sampai ke neuron pada lapisan output  Lapisan output ini akan membangkitkan pola output yang akan dicocokkan dengan pola output targetnya  Jika berbeda → error  Jika error terlalu besar, perlu dilakukan pembelajaran lebih banyak
  • 35.  Tidak memerlukan target output  Tidak dapat ditentukan hasil yang diharapkan selama proses pembelajaran  Nilai bobot disusun dalam suatu range tertentu tergantung nilai input yang diberikan  Tujuannya untuk mengelompokkan unit yang hampir sama dalam suatu area tertentu
  • 36.  Merupakan kombinasi dari kedua pembelajaran tersebut. Sebagian dari bobot-bobotnya ditentukan melalui pembelajaran terawasi dan sebagian lainnya melalui pembelajaran tak terawasi.
  • 37.
  • 38. Langkah-langkah : 1. Inisialisasi semua bobot = Wi = 0 (i=1,..,n) 2. Untuk semua vektor input s dan unit target t, lakukan : • Set aktivasi unit masukan Xi = Si (i=1,..,n) • Set aktivasi unit keluaran y = t • Perbaiki bobot menurut persamaan • Wi (baru) = Wi(lama)+∆W • ∆W = Xi.y • Perbaiki bias menurut persamaan : • b(baru) = b(lama)+y
  • 39. Membedakan pola : # o # # o o o # o # o o # o # # # # (X) (L) Bagaimana JST mengenali pola berikut : # # o # # o # # #
  • 40. # = 1, o = -1 X = 1, L = -1 Fungsi aktivasi : y = 1, jika y_in >= 0 y = -1, jika y_in < 0 # o # # o o o # o t=1 # o o t= -1 # o # # # #
  • 41. Input pertama : 1 -1 1 -1 1 -1 1 -1 1 ∆W = x.t, maka nilai ∆W untuk tiap input: 1 -1 1 -1 1 -1 1 -1 1 Bias = b.t = 1.1 = 1
  • 42. Input kedua : 1 -1 -1 1 -1 -1 1 1 1 ∆W = x.t, maka nilai ∆W untuk tiap input: -1 1 1 -1 1 1 -1 -1 -1 Bias = b.t = 1.-1 = -1
  • 43. Bobot baru : 0 0 2 -2 2 0 0 -2 0 Bias = 0
  • 44. Aplikasikan bobot baru ke input 1 : (1.0)+( -1.0)+(1.2)+(-1.-2)+(1.2)+ (-1.0)+(1.0)+(-1.-2)+(1.0) = 8 Jadi y = 1, sesuai target (t=1) Aplikasikan bobot baru ke input 2 : (1.0)+( -1.0)+(-1.2)+(1.-2)+(-1.2)+ (-1.0)+(1.0)+(1.-2)+(1.0) = -8 Jadi y = -1, sesuai target (t=-1) Jadi JST sudah bisa mengenali pola
  • 45. Aplikasikan ke pola yang baru : 1 1 -1 1 1 -1 1 1 1 Beri bobot yang baru : (1.0)+( -1.0)+ (-1.2)+(1.-2)+(-1.2)+ (-1.0)+(1.0)+ (1.-2)+(1.0) = -8 Jadi y = -1, dikenali sebagai L
  • 46. Bentuk paling sederhana dari JST. Digunakan untuk pengklasifikasian pola khusus yang biasa disebut linearable separable. Terbatas hanya untuk mengklasifikasikan dua kelas saja.
  • 49. x2 x1 Kelas K2 Kelas K1 Decision boundary w1x1 + w2x2 - Ө = 0
  • 50. T pxxxx ]...[ 21= Vektor input: Vektor bobot: Vektor output: T pwwww ]...[ 21= xwv T .=
  • 51.  Aturan Pembelajaran (Learning Rule) Error e (sinyal kesalahan) dinyatakan sbb: e = t – y dimana : Jika e = 1 , maka wbaru = wlama + x ( 1 ) Jika e = -1 , maka wbaru = wlama – x ( 2 ) Jika e = 0 , maka wbaru = wlama ( 3 ) wbaru = wlama + e.x bbaru = blama + e
  • 52. e = error t = target x = input y = output w = bobot
  • 54.
  • 55. • Ada 3 input yaitu x1,x2 dan x3 • Ada 3 bobot yaitu w1, w2 dan w3 • Tentukan bobot secara random, misal : w = [0.5 0.5 0.5] Σ y x1 w1 v x3 w3 No bias neuron x2 w2
  • 56. 1. Hitung jumlah input berbobot (v) (1*0.5)+(1*0.5)+(0*0.5) = 1
  • 57. 2. Fungsi Aktivasi (menggunakan hardlimit) y = 0 jika v < 0 y = 1 jika v ≥ 0 y = hardlimit(v) y = hardlimit(1) Jadi y = 1, sesuai target t = 1 untuk input pertama
  • 58. 3.Cek bobot apakah cocok dengan input kedua [0 1 1] dengan t=0, bobot [0.5 0.5 0.5] v = (0.5*0)+(0.5*1)+(0.5*1) = 1 y = hardlimit(1) y = 1, tidak sesuai dengan target, t = 0, maka harus dilakukan perubahan bobot
  • 59.
  • 60. 5. Hitung y dengan bobot yang baru v = (0.5*0)+(-0.5*1)+(-0.5*1) = -1 y = hardlimit(-1) = 0, sesuai dengan t=0 6. Cek bobot yang baru dengan input pertama v = (0.5*1)+(-0.5*1)+(-0.5*0) = 0 y = hardlimit(0) = 1, sesuai dengan t=1
  • 61. 7. Jika semua input sudah diklasifikasi dengan benar, tidak perlu ada perubahan pada bobot sehingga digunakan aturan sbb: Jika t = y, maka wbaru = wlama
  • 63.
  • 64. Kita pilih bobot secara random, misalnya: wT = [ 1 -0.8 ] Masukkan input x1 ke dalam jaringan dan output: y = hardlim (wT . x1 ) Input x1tidak benar karena t1 = 1 [ ] 0)6.0(hardlim 2 1 8.01hardlim =−=              −=y
  • 65. p1 p2 n ≥ 1 n < 1 Perlu diputar berlawanan arah dengan jarum jam 12 3 1 WT Cara mencari decision boundary: Jika, n = wp + b = 0 n = w1 .x1 + w2 . x2 = 0 Maka, x1 – 0.8 x2 = 0 5x1 – 4x2 = 0 Jika x2 = 1  x1 = 0.8 Jika x1 =1  x2 = 1.25
  • 66. Jika t = 1, sedangkan y = 0, maka: wbaru = wlama + x Tes bobot baru ke jaringan: Hasil output y sesuai dengan target output = 1       =      +      − =+= 2.1 2 2 1 8.0 1 1xww lamabaru [ ] 1)4.4(hardlim 2 1 2.12hardlim ==              =y
  • 67. p1 p2 n ≥ 1 n < 1 1 WT 12 3 Cara mencari decision boundary: Jika, n = wp + b = 0 w1 .x1 + w2 . x2 = 0 Maka, 2x1 + 1.2 x2 = 0 Jika, x2 = 1  x1 = - 1.2/2 x1 = - 0.6
  • 68. Tes input kedua: y = hardlim (wT . x2 ) Input x2 tidak benar karena t2 =0 [ ] 1)4.0(hardlim 2 1 2.12hardlim ==             − =y
  • 69. Jika t = 0, sedangkan y = 1, maka: wbaru = wlama - x Tes bobot baru ke jaringan: Hasil output y sesuai dengan target output = 0       − =     − −      =−= 8.0 3 2 1 2.1 2 2xww lamabaru [ ] 0)6.4(hardlim 2 1 8.03hardlim =−=             − −=y
  • 70. Cara mencari decision boundary: Jika, n = wp + b = 0 w1 .x1 + w2 . x2 = 0 Maka, 3x1 – 0.8 x2 = 0 Jika, x2 = 2  x1 = 1.6/3 x1 = 8/15 p1 p2 n ≥ 1 n < 1 Perlu diputar berlawanan arah dengan jarum jam 1WT 12 3
  • 71. Tes input ketiga: y = hardlim (wT . x3 ) Input x3 tidak benar karena t3 =0 [ ] 1)8.0(hardlim 1 0 8.03hardlim ==              − −=y
  • 72. Jika t = 0, sedangkan y = 1, maka: wbaru = wlama - x Tes bobot baru ke jaringan: Hasil output y sesuai dengan target output = 0       =      − −      − =−= 2.0 3 1 0 8.0 3 3xww lamabaru [ ] 0)2.0(hardlim 1 0 2.03hardlim =−=              − =y
  • 73. Cara mencari decision boundary: Jika, n = wp + b = 0 w1 .x1 + w2 . x2 = 0 Maka, 3x1 + 0.2 x2 = 0 Jika, x2 = 1  x1 = -0.2/3 x1 = -1/15 p1 p2 n ≥ 1 n < 1 1 WT 12 3