際際滷

際際滷Share a Scribd company logo
Kelompok:
- Bunga Amelia Restuputri

115060800111114

- Anis Maulida Dyah Ayu Putri

115060801111087

- Inten Widi P

115060800111001

- Regita Ayu P

115060800111028

2.3 Perceptron
Aturan pembelajaran perceptron adalah aturan belajar yang lebih kuat daripada aturan
Hebb. Biasanya, perceptrons asli memiliki tiga lapisan neuron sensorik unit, Unit associator
membentuk model perkiraan retina. Percepteron sederhana yang digunakan aktivasi biner
untuk unit sensorik dan associator dan aktivasi +1,0, atau -1 untuk unit respon. Sinyal yang
dikirim dari unit associator ke unit keluaran adalah biner (0 atau 1) sinyal. Output dari
perceptron adalah y = f(y_in), dimana fungsi aktivasi adalah

Bobot dari unit associator ke unit respon yang disesuaikan dengan aturan belajar
percepteron. Jaringan akan menghitung respon dari unit output. Jaringan akan menentukan
apakah kesalahan terjadi untuk pola ini. Jaringan tidak membedakan antara kesalahan di
mana output dihitung adalah nol dan target -1, sebagai kebalikan dari kesalahan di mana
output dihitung adalah +1 dan target -1. Dalam kedua kasus ini, tanda kesalahan
menunjukkan bahwa bobot harus diubah ke arah yang ditunjukkan oleh nilai target. Jika
kesalahan terjadi untuk pola input pelatihan tertentu, bobot akan berubah sesuai dengan
rumus:
Dimana t nilai target adalah +1 atau -1 dan 留 adalah tingkat pembelajaran. Jika kesalahan
tidak accur, bobot tidak akan berubah.
2.3.1 Architecture
Simple Perceptron for pattern classification
Sebagai bukti dari aturan pembelajaran perceptron konvergensi teorema diberikan dalam
bagian 2.3.4 menggambarkan, asumsi input biner tidak diperlukan. Karena hanya bobot dari
unit associator ke unit keluaran dapat disesuaikan, kami membatasi pertimbangan kami ke
jaringan, ditunjukkan pada Gambar 2.14.
2.3.2 Algorithm
Algoritma yang diberikan di sini adalah cocok untuk vektor masukan baik biner atau bipolar,
dengan target bipolar, 慮 tetap, dan bias disesuaikan. Peran ambang dibahas
mengikutipresentasi dari algoritma. Algoritma ini tidak terlalu sensistive dengan nilai-nilai
awal bobot atau nilai dari nilai learning.
Ambang batas pada fungsi aktivasi untuk unit respon adalah tetap, non nilai negatif 慮.
Bentuk fungsi aktivasi untuk unit keluaran adalah sedemikian rupa sehingga ada keragu raguan memisahkan wilayah respon positif dari yang respon negatif.
Perhatikan bahwa disini terdapat satu baris memisahkan, kami memiliki garis yang
memisahkan wilayah respon positif dari wilayah nol respon

Dan garis yang memisahkan wilayah respon negatif dari wilayah nol respon

2.3.3 Aplication
Logic Function
Contoh pada 2.11 perceptron for And function: binary input, dan bipolar target
Pada data training seperti contoh pada 2.6 pada aturan Hebb. Kita mengambil 留 = 1 dan
mengatur bobot awal dan bias 0. Sementara itu, menggambarkan peran dari ambang batas,
kita menggunakan 慮 = 2, bobot yang berubah adalah w = t(x1,x2, 1) jika error terjadi dan
bernilai 0, maka
Input
(x1 x2

1)

(1

1)

1

Net

Out

Target

Weight
Changes

0

0

1

(1

Pemisah baris akan menjadi

dan

1

Weights
(w1 w2 b)

1)

(0
(1

0
1

0)
1)
Gambar pada figure 2.15 menunjukkan bahwa respon dari jaringan akan benar untuk input
pola pertama. Menampilkan input yang kedua sebagai berikut

Input
(x1 x2

1)

(1

1)

0

Net

Out

Target

Weight
Changes

2

1

-1

(-1

0

Weights
(w1 w2 b)

- 1)

(0
(0

0
1

0)
0)

Pemisah baris akan menjadi

dan

Gambar pada 2.16 menunjukkan espon pada jarigan masih tetap benar untuk poin input
pertama. Menampilkan input ketiga sebagai berikut
Input
(x1 x2

( 01

1)

Net

Out

Target

1)

1

1

-1

Untuk pola data training ke-empat, sebagai berikut

Weight
Changes

Weights
(w1 w2 b)

(0 -1

(0
(0

- 1)

1
0

0)
-1)
Input
(x1 x2

1)

(0

1)

0

Net

Out

Target

Weight
Changes

Weights
(w1 w2 b)

-1

-1

-1

(0

(0
(0

0 0)

0-1)
0 -1)

Response dari semua pola input adalah negatif untuk masing  masing bobot. Namun,
ketika respon untuk pola input (1,1) ialah benar, maka kita belum selesai.
Masa kedua dari data training memiliki bobot update untuk input yang pertama sebagai
berikut
Input
(x1 x2

(1

1

Net

Out

Target

1)

1)

-1

-1

1

Weight
Changes

Weights
(w1 w2 b)

(1

(0
0
(11 0)

1

1)

-1)

Pemisah baris akan menjadi

dan

Gambar pada 2.17 menunjukkan respon jaringan akan benar ketika (t,t)

Untuk input kedua pada masa kedua adalah
Input
(x1 x2

(1

0

Net

Out

Target

1)

1)

1

Pemisah baris akan menjadi

1

-1

Weight
Changes

Weights
(w1 w2 b)

(-1

(11
(0

0-1)

0)
1 -1)
dan

Pada gambar 2.18 menunjukkan
Input
(x1 x2

(01

1)

Net

Out

Target

1)

0

0

-1

Weight
Changes

Weights
(w1 w2 b)

(0 -1

(01
(0

-1)

-1)
0 -2)

More Related Content

Viewers also liked (20)

Bilingualisam
BilingualisamBilingualisam
Bilingualisam
SZABIST
overloaded circuits, why smart people underperform
overloaded circuits, why smart people underperformoverloaded circuits, why smart people underperform
overloaded circuits, why smart people underperform
SZABIST
Innovationskultur im Konzern verankern - Henning Trill & Christian Beinke
Innovationskultur im Konzern verankern - Henning Trill & Christian BeinkeInnovationskultur im Konzern verankern - Henning Trill & Christian Beinke
Innovationskultur im Konzern verankern - Henning Trill & Christian Beinke
Corporate Startup Summit
Blueprints Of Cosmic Consciousness
Blueprints Of Cosmic ConsciousnessBlueprints Of Cosmic Consciousness
Blueprints Of Cosmic Consciousness
Synncrenicity
Daniel Tillberry's Greatest Strengths
Daniel Tillberry's Greatest StrengthsDaniel Tillberry's Greatest Strengths
Daniel Tillberry's Greatest Strengths
My Greatest Strengths / Peak Focus
Mark Watson's Greatest Strengths
Mark Watson's Greatest StrengthsMark Watson's Greatest Strengths
Mark Watson's Greatest Strengths
My Greatest Strengths / Peak Focus
April Carlock's Greatest Strengths
April Carlock's Greatest StrengthsApril Carlock's Greatest Strengths
April Carlock's Greatest Strengths
My Greatest Strengths / Peak Focus
Benefits management and organisational change
Benefits management and organisational changeBenefits management and organisational change
Benefits management and organisational change
Association for Project Management
Key problems of allocation of education responsibilities
Key problems of allocation of education responsibilitiesKey problems of allocation of education responsibilities
Key problems of allocation of education responsibilities
Kostiantyn Gavrylov
Corporates lernen von Startups und werden bessere, innovativere Unternehmen ...Corporates lernen von Startups und werden bessere, innovativere Unternehmen ...
Corporates lernen von Startups und werden bessere, innovativere Unternehmen ...
Corporate Startup Summit
町vadas 眺 susietuosius duomenis
町vadas 眺 susietuosius duomenis町vadas 眺 susietuosius duomenis
町vadas 眺 susietuosius duomenis
Open Data Support
Education Finance in Transition Countries
Education Finance in Transition CountriesEducation Finance in Transition Countries
Education Finance in Transition Countries
Kostiantyn Gavrylov
Las Competencias en el 叩mbito superior universitarioLas Competencias en el 叩mbito superior universitario
Las Competencias en el 叩mbito superior universitario
Kapy Pm
Hrm final presentation
Hrm final presentationHrm final presentation
Hrm final presentation
SZABIST
MIS in Walmart
MIS in Walmart MIS in Walmart
MIS in Walmart
SZABIST
Hypotheekbond software passend bij AFM visie "dienstverlening op maat"
Hypotheekbond software passend bij AFM visie "dienstverlening op maat"Hypotheekbond software passend bij AFM visie "dienstverlening op maat"
Hypotheekbond software passend bij AFM visie "dienstverlening op maat"
Jeroen Snijder
Maltrato am
Maltrato amMaltrato am
Maltrato am
dregla
仂舒仍仆 仄亠亠亢
仂舒仍仆 仄亠亠亢仂舒仍仆 仄亠亠亢
仂舒仍仆 仄亠亠亢
Marinka20
2 r908 tu畉n h湛ng_s畛 11 tr畉n 畉i ngh挑a_tel36280688
2 r908 tu畉n h湛ng_s畛 11 tr畉n 畉i ngh挑a_tel362806882 r908 tu畉n h湛ng_s畛 11 tr畉n 畉i ngh挑a_tel36280688
2 r908 tu畉n h湛ng_s畛 11 tr畉n 畉i ngh挑a_tel36280688
thanhcong0105
Bilingualisam
BilingualisamBilingualisam
Bilingualisam
SZABIST
overloaded circuits, why smart people underperform
overloaded circuits, why smart people underperformoverloaded circuits, why smart people underperform
overloaded circuits, why smart people underperform
SZABIST
Innovationskultur im Konzern verankern - Henning Trill & Christian Beinke
Innovationskultur im Konzern verankern - Henning Trill & Christian BeinkeInnovationskultur im Konzern verankern - Henning Trill & Christian Beinke
Innovationskultur im Konzern verankern - Henning Trill & Christian Beinke
Corporate Startup Summit
Blueprints Of Cosmic Consciousness
Blueprints Of Cosmic ConsciousnessBlueprints Of Cosmic Consciousness
Blueprints Of Cosmic Consciousness
Synncrenicity
Key problems of allocation of education responsibilities
Key problems of allocation of education responsibilitiesKey problems of allocation of education responsibilities
Key problems of allocation of education responsibilities
Kostiantyn Gavrylov
Corporates lernen von Startups und werden bessere, innovativere Unternehmen ...Corporates lernen von Startups und werden bessere, innovativere Unternehmen ...
Corporates lernen von Startups und werden bessere, innovativere Unternehmen ...
Corporate Startup Summit
町vadas 眺 susietuosius duomenis
町vadas 眺 susietuosius duomenis町vadas 眺 susietuosius duomenis
町vadas 眺 susietuosius duomenis
Open Data Support
Education Finance in Transition Countries
Education Finance in Transition CountriesEducation Finance in Transition Countries
Education Finance in Transition Countries
Kostiantyn Gavrylov
Las Competencias en el 叩mbito superior universitarioLas Competencias en el 叩mbito superior universitario
Las Competencias en el 叩mbito superior universitario
Kapy Pm
Hrm final presentation
Hrm final presentationHrm final presentation
Hrm final presentation
SZABIST
MIS in Walmart
MIS in Walmart MIS in Walmart
MIS in Walmart
SZABIST
Hypotheekbond software passend bij AFM visie "dienstverlening op maat"
Hypotheekbond software passend bij AFM visie "dienstverlening op maat"Hypotheekbond software passend bij AFM visie "dienstverlening op maat"
Hypotheekbond software passend bij AFM visie "dienstverlening op maat"
Jeroen Snijder
Maltrato am
Maltrato amMaltrato am
Maltrato am
dregla
仂舒仍仆 仄亠亠亢
仂舒仍仆 仄亠亠亢仂舒仍仆 仄亠亠亢
仂舒仍仆 仄亠亠亢
Marinka20
2 r908 tu畉n h湛ng_s畛 11 tr畉n 畉i ngh挑a_tel36280688
2 r908 tu畉n h湛ng_s畛 11 tr畉n 畉i ngh挑a_tel362806882 r908 tu畉n h湛ng_s畛 11 tr畉n 畉i ngh挑a_tel36280688
2 r908 tu畉n h湛ng_s畛 11 tr畉n 畉i ngh挑a_tel36280688
thanhcong0105

Similar to Jstchapt2 (20)

Jar perceptron
Jar perceptronJar perceptron
Jar perceptron
Achmadwildanfahrurrozy Gowil
Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1
aereal
19511 19 & 20 jst
19511 19 & 20 jst19511 19 & 20 jst
19511 19 & 20 jst
Universitas Bina Darma Palembang
7-1-Artificial Neural Network dan multilayer perceptron.pptx
7-1-Artificial Neural Network dan multilayer perceptron.pptx7-1-Artificial Neural Network dan multilayer perceptron.pptx
7-1-Artificial Neural Network dan multilayer perceptron.pptx
Indra Hermawan
7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx
SeminusPahabol
Artificial Neural Network for beginner newbie
Artificial Neural Network for beginner newbieArtificial Neural Network for beginner newbie
Artificial Neural Network for beginner newbie
Bern Sembiring
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptxJARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
UmiMahdiyah2
Membangun perceptron operator and
Membangun perceptron operator andMembangun perceptron operator and
Membangun perceptron operator and
Rakhmat Aji
Jaringanhebb
JaringanhebbJaringanhebb
Jaringanhebb
San Toso
Metode belajar hebbian supervised
Metode belajar hebbian supervisedMetode belajar hebbian supervised
Metode belajar hebbian supervised
Roy Nuary Singarimbun
Perceptron
PerceptronPerceptron
Perceptron
Iping Genetika
Back propagation
Back propagationBack propagation
Back propagation
AMIK AL MA'SOEM
1768 soal ujian quis
1768 soal ujian quis1768 soal ujian quis
1768 soal ujian quis
17roy
Metode Komputasi "Adaptive Network"
Metode Komputasi "Adaptive Network"Metode Komputasi "Adaptive Network"
Metode Komputasi "Adaptive Network"
Bilyan Ustazila
Supervised Learning
Supervised LearningSupervised Learning
Supervised Learning
Sherly Uda
(Jst)hebb dan delta rule
(Jst)hebb dan delta rule(Jst)hebb dan delta rule
(Jst)hebb dan delta rule
Junior Iqfar
JST jaringan saraf tiruan (artificial nuoron network) .ppt
JST jaringan saraf tiruan (artificial nuoron network) .pptJST jaringan saraf tiruan (artificial nuoron network) .ppt
JST jaringan saraf tiruan (artificial nuoron network) .ppt
nugrohosa
03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptx03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptx
ssuserb33952
Jaringan syaraf tiruan uas docs
Jaringan syaraf tiruan uas docsJaringan syaraf tiruan uas docs
Jaringan syaraf tiruan uas docs
ause labella
Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1Aturan pembelajaran perceptron1
Aturan pembelajaran perceptron1
aereal
7-1-Artificial Neural Network dan multilayer perceptron.pptx
7-1-Artificial Neural Network dan multilayer perceptron.pptx7-1-Artificial Neural Network dan multilayer perceptron.pptx
7-1-Artificial Neural Network dan multilayer perceptron.pptx
Indra Hermawan
7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx7-1-Artificial Neural Network.pptx
7-1-Artificial Neural Network.pptx
SeminusPahabol
Artificial Neural Network for beginner newbie
Artificial Neural Network for beginner newbieArtificial Neural Network for beginner newbie
Artificial Neural Network for beginner newbie
Bern Sembiring
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptxJARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
JARINGAN SYARAF TIRUAN(PERCEPTRON)_.pptx
UmiMahdiyah2
Membangun perceptron operator and
Membangun perceptron operator andMembangun perceptron operator and
Membangun perceptron operator and
Rakhmat Aji
Jaringanhebb
JaringanhebbJaringanhebb
Jaringanhebb
San Toso
Metode belajar hebbian supervised
Metode belajar hebbian supervisedMetode belajar hebbian supervised
Metode belajar hebbian supervised
Roy Nuary Singarimbun
1768 soal ujian quis
1768 soal ujian quis1768 soal ujian quis
1768 soal ujian quis
17roy
Metode Komputasi "Adaptive Network"
Metode Komputasi "Adaptive Network"Metode Komputasi "Adaptive Network"
Metode Komputasi "Adaptive Network"
Bilyan Ustazila
Supervised Learning
Supervised LearningSupervised Learning
Supervised Learning
Sherly Uda
(Jst)hebb dan delta rule
(Jst)hebb dan delta rule(Jst)hebb dan delta rule
(Jst)hebb dan delta rule
Junior Iqfar
JST jaringan saraf tiruan (artificial nuoron network) .ppt
JST jaringan saraf tiruan (artificial nuoron network) .pptJST jaringan saraf tiruan (artificial nuoron network) .ppt
JST jaringan saraf tiruan (artificial nuoron network) .ppt
nugrohosa
03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptx03. JARINGAN SYARAF HEBB (1).pptx
03. JARINGAN SYARAF HEBB (1).pptx
ssuserb33952
Jaringan syaraf tiruan uas docs
Jaringan syaraf tiruan uas docsJaringan syaraf tiruan uas docs
Jaringan syaraf tiruan uas docs
ause labella

Jstchapt2

  • 1. Kelompok: - Bunga Amelia Restuputri 115060800111114 - Anis Maulida Dyah Ayu Putri 115060801111087 - Inten Widi P 115060800111001 - Regita Ayu P 115060800111028 2.3 Perceptron Aturan pembelajaran perceptron adalah aturan belajar yang lebih kuat daripada aturan Hebb. Biasanya, perceptrons asli memiliki tiga lapisan neuron sensorik unit, Unit associator membentuk model perkiraan retina. Percepteron sederhana yang digunakan aktivasi biner untuk unit sensorik dan associator dan aktivasi +1,0, atau -1 untuk unit respon. Sinyal yang dikirim dari unit associator ke unit keluaran adalah biner (0 atau 1) sinyal. Output dari perceptron adalah y = f(y_in), dimana fungsi aktivasi adalah Bobot dari unit associator ke unit respon yang disesuaikan dengan aturan belajar percepteron. Jaringan akan menghitung respon dari unit output. Jaringan akan menentukan apakah kesalahan terjadi untuk pola ini. Jaringan tidak membedakan antara kesalahan di mana output dihitung adalah nol dan target -1, sebagai kebalikan dari kesalahan di mana output dihitung adalah +1 dan target -1. Dalam kedua kasus ini, tanda kesalahan menunjukkan bahwa bobot harus diubah ke arah yang ditunjukkan oleh nilai target. Jika kesalahan terjadi untuk pola input pelatihan tertentu, bobot akan berubah sesuai dengan rumus: Dimana t nilai target adalah +1 atau -1 dan 留 adalah tingkat pembelajaran. Jika kesalahan tidak accur, bobot tidak akan berubah. 2.3.1 Architecture Simple Perceptron for pattern classification Sebagai bukti dari aturan pembelajaran perceptron konvergensi teorema diberikan dalam bagian 2.3.4 menggambarkan, asumsi input biner tidak diperlukan. Karena hanya bobot dari unit associator ke unit keluaran dapat disesuaikan, kami membatasi pertimbangan kami ke jaringan, ditunjukkan pada Gambar 2.14.
  • 2. 2.3.2 Algorithm Algoritma yang diberikan di sini adalah cocok untuk vektor masukan baik biner atau bipolar, dengan target bipolar, 慮 tetap, dan bias disesuaikan. Peran ambang dibahas mengikutipresentasi dari algoritma. Algoritma ini tidak terlalu sensistive dengan nilai-nilai awal bobot atau nilai dari nilai learning. Ambang batas pada fungsi aktivasi untuk unit respon adalah tetap, non nilai negatif 慮. Bentuk fungsi aktivasi untuk unit keluaran adalah sedemikian rupa sehingga ada keragu raguan memisahkan wilayah respon positif dari yang respon negatif. Perhatikan bahwa disini terdapat satu baris memisahkan, kami memiliki garis yang memisahkan wilayah respon positif dari wilayah nol respon Dan garis yang memisahkan wilayah respon negatif dari wilayah nol respon 2.3.3 Aplication Logic Function Contoh pada 2.11 perceptron for And function: binary input, dan bipolar target Pada data training seperti contoh pada 2.6 pada aturan Hebb. Kita mengambil 留 = 1 dan mengatur bobot awal dan bias 0. Sementara itu, menggambarkan peran dari ambang batas, kita menggunakan 慮 = 2, bobot yang berubah adalah w = t(x1,x2, 1) jika error terjadi dan bernilai 0, maka Input (x1 x2 1) (1 1) 1 Net Out Target Weight Changes 0 0 1 (1 Pemisah baris akan menjadi dan 1 Weights (w1 w2 b) 1) (0 (1 0 1 0) 1)
  • 3. Gambar pada figure 2.15 menunjukkan bahwa respon dari jaringan akan benar untuk input pola pertama. Menampilkan input yang kedua sebagai berikut Input (x1 x2 1) (1 1) 0 Net Out Target Weight Changes 2 1 -1 (-1 0 Weights (w1 w2 b) - 1) (0 (0 0 1 0) 0) Pemisah baris akan menjadi dan Gambar pada 2.16 menunjukkan espon pada jarigan masih tetap benar untuk poin input pertama. Menampilkan input ketiga sebagai berikut Input (x1 x2 ( 01 1) Net Out Target 1) 1 1 -1 Untuk pola data training ke-empat, sebagai berikut Weight Changes Weights (w1 w2 b) (0 -1 (0 (0 - 1) 1 0 0) -1)
  • 4. Input (x1 x2 1) (0 1) 0 Net Out Target Weight Changes Weights (w1 w2 b) -1 -1 -1 (0 (0 (0 0 0) 0-1) 0 -1) Response dari semua pola input adalah negatif untuk masing masing bobot. Namun, ketika respon untuk pola input (1,1) ialah benar, maka kita belum selesai. Masa kedua dari data training memiliki bobot update untuk input yang pertama sebagai berikut Input (x1 x2 (1 1 Net Out Target 1) 1) -1 -1 1 Weight Changes Weights (w1 w2 b) (1 (0 0 (11 0) 1 1) -1) Pemisah baris akan menjadi dan Gambar pada 2.17 menunjukkan respon jaringan akan benar ketika (t,t) Untuk input kedua pada masa kedua adalah Input (x1 x2 (1 0 Net Out Target 1) 1) 1 Pemisah baris akan menjadi 1 -1 Weight Changes Weights (w1 w2 b) (-1 (11 (0 0-1) 0) 1 -1)
  • 5. dan Pada gambar 2.18 menunjukkan Input (x1 x2 (01 1) Net Out Target 1) 0 0 -1 Weight Changes Weights (w1 w2 b) (0 -1 (01 (0 -1) -1) 0 -2)