신경망의 층이 늘어났을 때 (즉 신경망이 깊어졌을 때), 학습의 어려움을 해소하기 위해 제시된 선행학습 관점에서 DBN과 AE를 소개합니다. 또한 다른 접근법으로 문제를 해소하여 뒤 늦게 심층 신경망으로 간주되고 있는 CNN을 소개합니다.
DBN에 사용된 RBM, AE는 GAN과 더블어 비교사학습 방법을 이끄는 삼두마차입니다. CNN은 영상학습 분야의 단연 절대강자입니다.
1 of 20
Downloaded 15 times
More Related Content
[신경망기초] 심층신경망개요
1. 심층 신경망 개요
딥러닝을 위한 신경망 기초
nonezerok@gmail.com
신경망의 층이 늘어났을 때 (즉 신경망이 깊어졌을 때),
학습의 어려움을 해소하기 위해 제시된 선행학습 관점에서 DBN과 AE를 소개합니다.
또한 다른 접근법으로 문제를 해소하여 뒤 늦게 심층 신경망으로 간주되고 있는 CNN을 소개합니다.
DBN에 사용된 RBM, AE는 GAN과 더블어 비교사학습 방법을 이끄는 삼두마차입니다.
CNN은 영상학습 분야의 단연 절대강자입니다.
3. • Weight 수가 과다 → 더 많은 수의 학습 데이터 요구됨
• Vanishing Gradient Problem 발생 → Weight 갱신이 안됨
= + ∆
∆ = −
= 1 − − −
=
1
1 +
= 1 −
3
심층신경망의 문제점
손실함수 미분 식에 나타난
시그모이드 함수 미분
어느 정도 학습이 진행되면
시그모이드 입력 값은 어느
한 쪽으로 치우쳐짐
양 쪽의 미분 값은 거의 0
4. 4
Deep Belief Networks (Hinton, 2006)
Stacked Auto-Encoder (Bengio, 2007)
학습이 잘 안 되는 문제를 가중치 초기화 문제로 간주하고 해결하였음
6. 6
Auto-Encoder를 이용한 선행 학습
1 2
이번엔 벤지오 교수가 제안한 방법
(Layer-Wise Pre-Training 관점에서)
입력을 출력 목표 값으로 학습하는 신경망; 오류역전파 알고리즘 사용
Pre-training
softmax
※Variational AutoEncoder
8. 8
가중치 공유; weight sharing
1 2주변만 연결 공유
36 16 4
이를 통해 가중치의 개수를 36개에서 4개로 줄임
9. 9
1 2주변만 연결 공유
36 16 4
합성곱; convolution 연산
영상처리에서는 예전부터 사용하던 연산
10. 10
3X4 픽셀 영상에 대해
2X3 픽셀 결과 생성
+ + +
180도 회전
세로 축을 기준으로 뒤 집고,
다시 가로 축을 기준으로 뒤집는다.
correlation
연산
convolution
연산
커널에 있는 값을 곱하고,
이들을 다 더했음
커널;
kernel