狠狠撸

狠狠撸Share a Scribd company logo
Chapter 2: ?
順伝播型ネットワーク
機械学習プロフェッショナルシリーズ輪読会
~「深層学習」編~?
@a_macbee
最も基本的なニューラルネットワーク
順伝播型 (ニューラル) ネットワーク
について学びます
? 2.1 ユニットの出力
? 2.2 活性化関数
? 2.3 多層ネットワーク
? 2.4 出力層の設計と誤差関数
? 2.4.1 学習の枠組み
? 2.4.2 回帰
? 2.4.3 二値分類
? 2.4.4 多クラス分類
? 2.1 ユニットの出力
? 2.2 活性化関数
? 2.3 多層ネットワーク
? 2.4 出力層の設計と誤差関数
? 2.4.1 学習の枠組み
? 2.4.2 回帰
? 2.4.3 二値分類
? 2.4.4 多クラス分類
順伝播型ネットワーク
? 層状に並べたユニット
? 隣接層間のみで結合した構造
? 情報が入力側から出力側の一方向にのみ伝播
u z z
x1
x2
x3
x4
w:重み (weight)
b:バイアス (bias)
f:活性化関数
順伝播型ネットワーク
? ユニットが層状に並べられ,層間でのみ結合?
左の層のユニットの出力が右の層のユニットの入力になる
第1層:i = 1, …, I
第2層:j = 1, …, Ju1 z1 z1
u2 z2
u3 z3
z2
z3
x4
x3
x2
x1
? 2.1 ユニットの出力
? 2.2 活性化関数
? 2.3 多層ネットワーク
? 2.4 出力層の設計と誤差関数
? 2.4.1 学習の枠組み
? 2.4.2 回帰
? 2.4.3 二値分類
? 2.4.4 多クラス分類
活性化関数
? 通常,単調増加する非線形関数が用いられる
? よく使われるのはロジスティックシグモイド
関数 (logistic sigmoid function)
? 双曲線正接関数を使うこともある
これらはシグモイド関数 (sigmoid function) と総称される
活性化関数
? 近年は,正規化線形関数 (recti?ed linear
function) がよく利用される
? 単純で計算量が小さい
? シグモイド関数よりも学習がより速く進む
? 最終的にもよりよい結果が得られる
※8章で改めて説明があるよう
活性化関数
? その他の活性化関数たち
? 線形写像?恒等写像?
※部分的に利用されることがある
? ロジスティック関数を区分的に直线で近似
活性化関数
? その他の活性化関数たち
? マックスアウト (maxout) 関数?
K個の異なるユニットをまとめたような構造?
正規化線形関数よりも高い性能を示す
? 2.1 ユニットの出力
? 2.2 活性化関数
? 2.3 多層ネットワーク
? 2.4 出力層の設計と誤差関数
? 2.4.1 学習の枠組み
? 2.4.2 回帰
? 2.4.3 二値分類
? 2.4.4 多クラス分類
多層ネットワーク
y1
y2
x1
x1
x1
x1
l&=&1
l&=&2
l&=&3
z(1)
z(2)
z(3)
入力層 中間層
(隠れ層)
出力層
最終出力をyとおく
各層で異なる
活性化関数 f を
利用して良い
※一般的に出力層は違う関数が選ばれる
? 2.1 ユニットの出力
? 2.2 活性化関数
? 2.3 多層ネットワーク
? 2.4 出力層の設計と誤差関数
? 2.4.1 学習の枠組み
? 2.4.2 回帰
? 2.4.3 二値分類
? 2.4.4 多クラス分類
学習の枠組み
? 順伝播型ネットワークの肝はパラメータ w?
w を調整することで入出力ペアを再現したい
X = {x1, …, xN}:訓練データ (training data)
D = {d1, …, dN}:x に対応する望ましい出力
ネットワークの出力がDに近づくように学習
誤差関数 (error function) を最小化する
学習の枠組み
問題の種別 出力層の活性化関数 誤差関数
回帰 恒等写像 二乗誤差 式 (2.6) ※後述
二値分類 ロジスティック関数 式 (2.8) ※後述
多クラス分類 ソフトマックス関数
交差エントロピー 式 (2.11)
※後述
※具体的な学習方法については3章?
? 2.1 ユニットの出力
? 2.2 活性化関数
? 2.3 多層ネットワーク
? 2.4 出力層の設計と誤差関数
? 2.4.1 学習の枠組み
? 2.4.2 回帰
? 2.4.3 二値分類
? 2.4.4 多クラス分類
回帰 (regression)
? 出力が連続値の場合?
ネットワーク出力層の活性化関数は,値域に応
じて決める
? 値域 [-1:1] - 正接双曲線関数
? 値域 任意の実数 - 恒等写像
? 誤差関数には二乗誤差を利用
? 2.1 ユニットの出力
? 2.2 活性化関数
? 2.3 多層ネットワーク
? 2.4 出力層の設計と誤差関数
? 2.4.1 学習の枠組み
? 2.4.2 回帰
? 2.4.3 二値分類
? 2.4.4 多クラス分類
二値分類
? 入力 x に応じて出力を2つに分類する場合?
x を指定した際に d=1となる事後確率
p(d=1?x) をモデル化?
?
出力層にユニットを一つだけもち,その活性化
関数はロジスティック関数
二値分類
? 最尤推定 (maximum likelihood estimation)
で 尤度 (likelihood) を最大にする w を求める
? 上記を誤差関数として書き換えると以下の通り?
(最大化ではなく最小化を考えている)
? 2.1 ユニットの出力
? 2.2 活性化関数
? 2.3 多層ネットワーク
? 2.4 出力層の設計と誤差関数
? 2.4.1 学習の枠組み
? 2.4.2 回帰
? 2.4.3 二値分類
? 2.4.4 多クラス分類
多クラス分類
? 入力 x を内容に応じて有限個のクラスに分類?
k 個のクラスがあったとき,出力層の k 番目の
ユニットの出力はソフトマック関数 (softmax
function) で書ける
※各クラスに属する事後確率として表現できる
※確率なので総和は1
多クラス分類
? 目標出力をダミー変数へ
? 前回と同じく尤度関数を導出し誤差関数を求め
る.この関数は交差エントロピー (cross
entropy) と呼ばれる
Ad

Recommended

深層学習(岡本孝之 著) - Deep Learning chap.1 and 2
深層学習(岡本孝之 著) - Deep Learning chap.1 and 2
Masayoshi Kondo
?
最尤推定法(狈狈での応用)
最尤推定法(狈狈での応用)
MatsuiRyo
?
5分で分かる自己组织化マップ
5分で分かる自己组织化マップ
Daisuke Takai
?
[PRML] パターン認識と機械学習(第1章:序論)
[PRML] パターン認識と機械学習(第1章:序論)
Ryosuke Sasaki
?
几何を使った统计のはなし
几何を使った统计のはなし
Toru Imai
?
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
Issei Kurahashi
?
猫でも分かりたい线形回帰の自由度
猫でも分かりたい线形回帰の自由度
YukinoriKambe
?
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
Morpho, Inc.
?
机械学习による统计的実験计画(ベイズ最适化を中心に)
机械学习による统计的実験计画(ベイズ最适化を中心に)
Kota Matsui
?
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
Deep Learning JP
?
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
Seiichi Uchida
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
?
机械学习におけるオンライン确率的最适化の理论
机械学习におけるオンライン确率的最适化の理论
Taiji Suzuki
?
笔搁惭尝の线形回帰モデル(线形基底関数モデル)
笔搁惭尝の线形回帰モデル(线形基底関数モデル)
Yasunori Ozaki
?
勾配降下法の 最適化アルゴリズム
勾配降下法の 最適化アルゴリズム
nishio
?
[DL Hacks]Visdomを使ったデータ可視化
[DL Hacks]Visdomを使ったデータ可視化
Deep Learning JP
?
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
?
质的変数の相関?因子分析
质的変数の相関?因子分析
Mitsuo Shimohata
?
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
?
Iclr2016 vaeまとめ
Iclr2016 vaeまとめ
Deep Learning JP
?
笔搁惭尝轮読#1
笔搁惭尝轮読#1
matsuolab
?
颁痴分野におけるサーベイ方法
颁痴分野におけるサーベイ方法
Hirokatsu Kataoka
?
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
?
[DL輪読会]Deep Learning 第18章 分配関数との対峙
[DL輪読会]Deep Learning 第18章 分配関数との対峙
Deep Learning JP
?
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
?
グラフニューラルネットワークとグラフ组合せ问题
グラフニューラルネットワークとグラフ组合せ问题
joisino
?
贬测辫别谤辞辫迟とその周辺について
贬测辫别谤辞辫迟とその周辺について
Keisuke Hosaka
?
顺伝搬型ネットワーク冲1
顺伝搬型ネットワーク冲1
Terutoshi Arimura
?
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
Yuta Sugii
?

More Related Content

What's hot (20)

机械学习による统计的実験计画(ベイズ最适化を中心に)
机械学习による统计的実験计画(ベイズ最适化を中心に)
Kota Matsui
?
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
Deep Learning JP
?
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
Seiichi Uchida
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
?
机械学习におけるオンライン确率的最适化の理论
机械学习におけるオンライン确率的最适化の理论
Taiji Suzuki
?
笔搁惭尝の线形回帰モデル(线形基底関数モデル)
笔搁惭尝の线形回帰モデル(线形基底関数モデル)
Yasunori Ozaki
?
勾配降下法の 最適化アルゴリズム
勾配降下法の 最適化アルゴリズム
nishio
?
[DL Hacks]Visdomを使ったデータ可視化
[DL Hacks]Visdomを使ったデータ可視化
Deep Learning JP
?
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
?
质的変数の相関?因子分析
质的変数の相関?因子分析
Mitsuo Shimohata
?
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
?
Iclr2016 vaeまとめ
Iclr2016 vaeまとめ
Deep Learning JP
?
笔搁惭尝轮読#1
笔搁惭尝轮読#1
matsuolab
?
颁痴分野におけるサーベイ方法
颁痴分野におけるサーベイ方法
Hirokatsu Kataoka
?
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
?
[DL輪読会]Deep Learning 第18章 分配関数との対峙
[DL輪読会]Deep Learning 第18章 分配関数との対峙
Deep Learning JP
?
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
?
グラフニューラルネットワークとグラフ组合せ问题
グラフニューラルネットワークとグラフ组合せ问题
joisino
?
贬测辫别谤辞辫迟とその周辺について
贬测辫别谤辞辫迟とその周辺について
Keisuke Hosaka
?
机械学习による统计的実験计画(ベイズ最适化を中心に)
机械学习による统计的実験计画(ベイズ最适化を中心に)
Kota Matsui
?
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
Deep Learning JP
?
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
Seiichi Uchida
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
?
机械学习におけるオンライン确率的最适化の理论
机械学习におけるオンライン确率的最适化の理论
Taiji Suzuki
?
笔搁惭尝の线形回帰モデル(线形基底関数モデル)
笔搁惭尝の线形回帰モデル(线形基底関数モデル)
Yasunori Ozaki
?
勾配降下法の 最適化アルゴリズム
勾配降下法の 最適化アルゴリズム
nishio
?
[DL Hacks]Visdomを使ったデータ可視化
[DL Hacks]Visdomを使ったデータ可視化
Deep Learning JP
?
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
?
质的変数の相関?因子分析
质的変数の相関?因子分析
Mitsuo Shimohata
?
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
?
笔搁惭尝轮読#1
笔搁惭尝轮読#1
matsuolab
?
颁痴分野におけるサーベイ方法
颁痴分野におけるサーベイ方法
Hirokatsu Kataoka
?
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
?
[DL輪読会]Deep Learning 第18章 分配関数との対峙
[DL輪読会]Deep Learning 第18章 分配関数との対峙
Deep Learning JP
?
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
?
グラフニューラルネットワークとグラフ组合せ问题
グラフニューラルネットワークとグラフ组合せ问题
joisino
?
贬测辫别谤辞辫迟とその周辺について
贬测辫别谤辞辫迟とその周辺について
Keisuke Hosaka
?

Similar to Chapter 02 #ml-professional (20)

顺伝搬型ネットワーク冲1
顺伝搬型ネットワーク冲1
Terutoshi Arimura
?
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
Yuta Sugii
?
mi-5. ディープラーニング
mi-5. ディープラーニング
kunihikokaneko1
?
深层学习(讲谈社)のまとめ(1章~2章)
深层学习(讲谈社)のまとめ(1章~2章)
okku apot
?
PRML5
PRML5
Hidekazu Oiwa
?
PRML Chapter 5
PRML Chapter 5
Masahito Ohue
?
シリーズML-05 ニューラルネットワーク
シリーズML-05 ニューラルネットワーク
Katsuhiro Morishita
?
Back propagation
Back propagation
T2C_
?
Deep Learning - Forward Propagation
Deep Learning - Forward Propagation
Shinobu Kinjo
?
Deep learning chapter4 ,5
Deep learning chapter4 ,5
ShoKumada
?
深層学習 勉強会 第1回資料(作成途中)
深層学習 勉強会 第1回資料(作成途中)
Shuuji Mihara
?
PRML_from5.1to5.3.1
PRML_from5.1to5.3.1
禎晃 山崎
?
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
hirokazutanaka
?
深层学习入门 スライド
深层学习入门 スライド
swamp Sawa
?
卒研発表スライド.辫辫迟虫
卒研発表スライド.辫辫迟虫
ssuser3afcb9
?
ゼロから作るDeepLearning 5章 輪読
ゼロから作るDeepLearning 5章 輪読
KCS Keio Computer Society
?
深层学习による自然言语処理勉强会2章前半
深层学习による自然言语処理勉强会2章前半
Jiro Nishitoba
?
深層学習 Day1レポート
深層学習 Day1レポート
taishimotoda
?
Long short-term memory (LSTM)
Long short-term memory (LSTM)
Kenta Ishii
?
20150803.山口大学集中讲义
20150803.山口大学集中讲义
Hayaru SHOUNO
?
顺伝搬型ネットワーク冲1
顺伝搬型ネットワーク冲1
Terutoshi Arimura
?
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
Yuta Sugii
?
mi-5. ディープラーニング
mi-5. ディープラーニング
kunihikokaneko1
?
深层学习(讲谈社)のまとめ(1章~2章)
深层学习(讲谈社)のまとめ(1章~2章)
okku apot
?
シリーズML-05 ニューラルネットワーク
シリーズML-05 ニューラルネットワーク
Katsuhiro Morishita
?
Back propagation
Back propagation
T2C_
?
Deep Learning - Forward Propagation
Deep Learning - Forward Propagation
Shinobu Kinjo
?
Deep learning chapter4 ,5
Deep learning chapter4 ,5
ShoKumada
?
深層学習 勉強会 第1回資料(作成途中)
深層学習 勉強会 第1回資料(作成途中)
Shuuji Mihara
?
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
東京都市大学 データ解析入門 10 ニューラルネットワークと深層学習 1
hirokazutanaka
?
深层学习入门 スライド
深层学习入门 スライド
swamp Sawa
?
卒研発表スライド.辫辫迟虫
卒研発表スライド.辫辫迟虫
ssuser3afcb9
?
深层学习による自然言语処理勉强会2章前半
深层学习による自然言语処理勉强会2章前半
Jiro Nishitoba
?
深層学習 Day1レポート
深層学習 Day1レポート
taishimotoda
?
Long short-term memory (LSTM)
Long short-term memory (LSTM)
Kenta Ishii
?
20150803.山口大学集中讲义
20150803.山口大学集中讲义
Hayaru SHOUNO
?
Ad

More from Ai Makabi (10)

Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
Ai Makabi
?
Python for Beginners ( #PyLadiesKyoto Meetup )
Python for Beginners ( #PyLadiesKyoto Meetup )
Ai Makabi
?
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知 #ml-professional
Ai Makabi
?
Chapter 01 #ml-professional
Chapter 01 #ml-professional
Ai Makabi
?
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2
Ai Makabi
?
Pyladies tokyo 20150123
Pyladies tokyo 20150123
Ai Makabi
?
Pycharm 4への誘い
Pycharm 4への誘い
Ai Makabi
?
PyLadies Tokyo 立ち上げのお知らせ
PyLadies Tokyo 立ち上げのお知らせ
Ai Makabi
?
闯耻濒颈补のススメ
闯耻濒颈补のススメ
Ai Makabi
?
バンディットアルゴリズム勉强会
バンディットアルゴリズム勉强会
Ai Makabi
?
Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
Ai Makabi
?
Python for Beginners ( #PyLadiesKyoto Meetup )
Python for Beginners ( #PyLadiesKyoto Meetup )
Ai Makabi
?
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知 #ml-professional
Ai Makabi
?
Chapter 01 #ml-professional
Chapter 01 #ml-professional
Ai Makabi
?
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2
Ai Makabi
?
Pyladies tokyo 20150123
Pyladies tokyo 20150123
Ai Makabi
?
Pycharm 4への誘い
Pycharm 4への誘い
Ai Makabi
?
PyLadies Tokyo 立ち上げのお知らせ
PyLadies Tokyo 立ち上げのお知らせ
Ai Makabi
?
闯耻濒颈补のススメ
闯耻濒颈补のススメ
Ai Makabi
?
バンディットアルゴリズム勉强会
バンディットアルゴリズム勉强会
Ai Makabi
?
Ad

Chapter 02 #ml-professional