狠狠撸

狠狠撸Share a Scribd company logo
2
Most read
6
Most read
8
Most read
Chapter 1: はじめに
機械学習プロフェッショナルシリーズ輪読会
~「深層学習」編~?
@a_macbee
後ろの章で説明される話題が多いので
本書を読み終わった後にもう一度読むと
理解が深まりそうで良さそう
意:ここではあまり内容を深堀りません
? 1.1 研究の歴史
? 1.1.1 多層ニューラルネットへの期待と失望
? 1.1.2 多層ネットワークの事前学習
? 1.1.3 特徴量の学習
? 1.1.4 深層学習の隆盛
? 1.2 本書の構成 (※話しません)
? 1.1 研究の歴史
? 1.1.1 多層ニューラルネットへの期待と失望
? 1.1.2 多層ネットワークの事前学習
? 1.1.3 特徴量の学習
? 1.1.4 深層学習の隆盛
? 1.2 本書の構成 (※話しません)
多層ニューラルネットワークの歴史
? 人工ニューラルネットワーク(以下ニューラルネット)
の研究の歴史は山あり谷あり
? 1940年代:?
?研究開始
? 1980 - 1990年代:?
?誤差逆伝播法 (back propagation) (4章)の発明によ?
?る2度目のブーム
? 1990年代後半 - 2000年代前半:?
?再び下火に
この間 盛り上がったり下がったり
あったらしい
なぜ流行らなかったのか?
? 誤差逆伝播法によるニューラルネットの学習は多
層になるとうまくいかない (図1.1)
? 勾配消失問題にもとづく過学習が問題に
? 畳み込みニューラルネット (CNN) (6章) はこの限りでは
ない
? 学習パラメータ (層数 / ユニット数 等) の性能へ
の寄与がよく分からない
? 1.1 研究の歴史
? 1.1.1 多層ニューラルネットへの期待と失望
? 1.1.2 多層ネットワークの事前学習
? 1.1.3 特徴量の学習
? 1.1.4 深層学習の隆盛
? 1.2 本書の構成 (※話しません)
多層ネットワークの事前学習
? Hintonらのディープビリーフネットワーク
(DBN) の登場 (2010年)
? 一般的なニューラルネットとは原理が異なるが、
どちらにしろ多層になると学習は困難
多層ネットワークの事前学習
? Hintonらのディープビリーフネットワーク
(DBN) の登場 (2010年)
? 制約ボルツマンマシン (RBM) (8章)と呼ばれる
単層ネットワークに分類し,層ごとに事前学習
???多層であっても過適合を起こさない
層ごとにパラメータの
良い初期値を得る
多層ネットワークの事前学習
? DBNやRBMより単純な自己符号化器 (auto-
encoder) (5章)を使っても事前学习が可能
? 1.1 研究の歴史
? 1.1.1 多層ニューラルネットへの期待と失望
? 1.1.2 多層ネットワークの事前学習
? 1.1.3 特徴量の学習
? 1.1.4 深層学習の隆盛
? 1.2 本書の構成 (※話しません)
特徴量の学習
? 強い偏りを持ちながら複雑に広がる高次元デー
タ (e.g. 画像,音声) をどう学習するのか
? 自己符号化器に,少数の基底の組み合わせで入
力を表現するスパース符号化 (sparse coding)
(5章)の考え方を導入?
?→ 多層ネットワークは学習によって興味深い?
?? 階層構造を構成する
わかりやすかった解説:http://d.hatena.ne.jp/takmin/20121224/1356315231
多層ネットワークの階層構造の例
? 特定の物体だけに選択的に反応するユニット
Building High-level Features Using Large Scale Unsupervised Learning
引用:http://static.googleusercontent.com/media/research.google.com/ja//
pubs/archive/38115.pdf
100,000
et, only
d the lo-
ned the
uracy of
ith pre-
contrast
for face
be seen,
n learns
tractors.
age, the
reshold,
an input
than 0.
s (blue).
between
on tech-
approach can be susceptible to local minima. Results,
shown in Figure 13, con?rm that the tested neuron
indeed learns the concept of faces.
Figure 3. Top: Top 48 stimuli of the best neuron from the
test set. Bottom: The optimal stimulus according to nu-
merical constraint optimization.
4.5. Invariance properties
We would like to assess the robustness of the face de-
tector against common object transformations, e.g.,
translation, scaling and out-of-plane rotation. First,
Building high-level features using large-scale unsupervised learning
e (left) and out-of-plane (3D) rotation (right)
perties of the best feature.
Figure 6. Visualization of the cat face neu
human body neuron (right).
For the ease of interpretation, these da
positive-to-negative ratio identical to the
? 1.1 研究の歴史
? 1.1.1 多層ニューラルネットへの期待と失望
? 1.1.2 多層ネットワークの事前学習
? 1.1.3 特徴量の学習
? 1.1.4 深層学習の隆盛
? 1.2 本書の構成 (※話しません)
深層学習の隆盛
? 深層学習 (deep learning)の有効性が広く認知される
? 深層学習の様々な方法論
? 音声認識
? 層間ユニットが全結合したネットワークがよく利用される
(事前学習がよく用いられる)
? 画像認識
? 畳込みニューラルネットが主流.事前学習はあまり利用さ
れない
? 自然言語処理 / 音声認識
? 再帰型ニューラルネット (RNN)が使われている
なぜ多層ニューラルネットは有用か
? 現実の問題は複雑なので,それに見合う規模の
ニューラルネットが必要?
→ 学習できるだけのデータがある
? 計算機の計算能力が飛躍的に向上
現実世界の大規模な問題に対し
多層ニューラルネットを試してみたところ
思わぬ性能を発揮した…が実際のところ?
Ad

Recommended

罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について
罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について
Sho Takase
?
[DL輪読会]Deep Learning 第2章 線形代数
[DL輪読会]Deep Learning 第2章 線形代数
Deep Learning JP
?
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
Yuta Sugii
?
分散学习のあれこれ~データパラレルからモデルパラレルまで~
分散学习のあれこれ~データパラレルからモデルパラレルまで~
Hideki Tsunashima
?
大阪笔搁惭尝読书会#1资料
大阪笔搁惭尝読书会#1资料
Hiromasa Ohashi
?
笔搁惭尝轮読#1
笔搁惭尝轮読#1
matsuolab
?
データサイエンス概論第一 5 時系列データの解析
データサイエンス概論第一 5 時系列データの解析
Seiichi Uchida
?
[Dl輪読会]introduction of reinforcement learning
[Dl輪読会]introduction of reinforcement learning
Deep Learning JP
?
プロジェクトマネージャのための机械学习工学入门
プロジェクトマネージャのための机械学习工学入门
Nobukazu Yoshioka
?
Mean Teacher
Mean Teacher
harmonylab
?
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
?
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
Nagayoshi Yamashita
?
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要
Kenji Urai
?
Deep Learningと画像認識   ~歴史?理論?実践~
Deep Learningと画像認識   ~歴史?理論?実践~
nlab_utokyo
?
Chapter 02 #ml-professional
Chapter 02 #ml-professional
Ai Makabi
?
Graph Neural Networks
Graph Neural Networks
tm1966
?
骋笔鲍上での狈尝笔向け深层学习の実装について
骋笔鲍上での狈尝笔向け深层学习の実装について
Yuya Unno
?
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
?
笔搁惭尝読み会第一章
笔搁惭尝読み会第一章
Takushi Miki
?
勾配降下法の 最適化アルゴリズム
勾配降下法の 最適化アルゴリズム
nishio
?
パターン认识と机械学习入门
パターン认识と机械学习入门
Momoko Hayamizu
?
Group normalization
Group normalization
Ryutaro Yamauchi
?
Meta-Learning with Memory Augmented Neural Network
Meta-Learning with Memory Augmented Neural Network
Yusuke Watanabe
?
颁痴分野におけるサーベイ方法
颁痴分野におけるサーベイ方法
Hirokatsu Kataoka
?
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
Takuji Tahara
?
事业の进展とデータマネジメント体制の进歩(+プレトタイプの话)
事业の进展とデータマネジメント体制の进歩(+プレトタイプの话)
Tokoroten Nakayama
?
次元圧缩周りでの気付き&1细胞発现データにおける次元圧缩の利用例蔼第3回飞补肠辞诲别
次元圧缩周りでの気付き&1细胞発现データにおける次元圧缩の利用例蔼第3回飞补肠辞诲别
Hirotaka Matsumoto
?
初めてのグラフカット
初めてのグラフカット
Tsubasa Hirakawa
?
Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
Ai Makabi
?
Python for Beginners ( #PyLadiesKyoto Meetup )
Python for Beginners ( #PyLadiesKyoto Meetup )
Ai Makabi
?

More Related Content

What's hot (20)

プロジェクトマネージャのための机械学习工学入门
プロジェクトマネージャのための机械学习工学入门
Nobukazu Yoshioka
?
Mean Teacher
Mean Teacher
harmonylab
?
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
?
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
Nagayoshi Yamashita
?
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要
Kenji Urai
?
Deep Learningと画像認識   ~歴史?理論?実践~
Deep Learningと画像認識   ~歴史?理論?実践~
nlab_utokyo
?
Chapter 02 #ml-professional
Chapter 02 #ml-professional
Ai Makabi
?
Graph Neural Networks
Graph Neural Networks
tm1966
?
骋笔鲍上での狈尝笔向け深层学习の実装について
骋笔鲍上での狈尝笔向け深层学习の実装について
Yuya Unno
?
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
?
笔搁惭尝読み会第一章
笔搁惭尝読み会第一章
Takushi Miki
?
勾配降下法の 最適化アルゴリズム
勾配降下法の 最適化アルゴリズム
nishio
?
パターン认识と机械学习入门
パターン认识と机械学习入门
Momoko Hayamizu
?
Group normalization
Group normalization
Ryutaro Yamauchi
?
Meta-Learning with Memory Augmented Neural Network
Meta-Learning with Memory Augmented Neural Network
Yusuke Watanabe
?
颁痴分野におけるサーベイ方法
颁痴分野におけるサーベイ方法
Hirokatsu Kataoka
?
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
Takuji Tahara
?
事业の进展とデータマネジメント体制の进歩(+プレトタイプの话)
事业の进展とデータマネジメント体制の进歩(+プレトタイプの话)
Tokoroten Nakayama
?
次元圧缩周りでの気付き&1细胞発现データにおける次元圧缩の利用例蔼第3回飞补肠辞诲别
次元圧缩周りでの気付き&1细胞発现データにおける次元圧缩の利用例蔼第3回飞补肠辞诲别
Hirotaka Matsumoto
?
初めてのグラフカット
初めてのグラフカット
Tsubasa Hirakawa
?
プロジェクトマネージャのための机械学习工学入门
プロジェクトマネージャのための机械学习工学入门
Nobukazu Yoshioka
?
[DL輪読会]Deep Learning 第5章 機械学習の基礎
[DL輪読会]Deep Learning 第5章 機械学習の基礎
Deep Learning JP
?
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
パターン認識と機械学習(PRML)第2章 確率分布 2.3 ガウス分布
Nagayoshi Yamashita
?
LSTM (Long short-term memory) 概要
LSTM (Long short-term memory) 概要
Kenji Urai
?
Deep Learningと画像認識   ~歴史?理論?実践~
Deep Learningと画像認識   ~歴史?理論?実践~
nlab_utokyo
?
Chapter 02 #ml-professional
Chapter 02 #ml-professional
Ai Makabi
?
Graph Neural Networks
Graph Neural Networks
tm1966
?
骋笔鲍上での狈尝笔向け深层学习の実装について
骋笔鲍上での狈尝笔向け深层学习の実装について
Yuya Unno
?
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
?
笔搁惭尝読み会第一章
笔搁惭尝読み会第一章
Takushi Miki
?
勾配降下法の 最適化アルゴリズム
勾配降下法の 最適化アルゴリズム
nishio
?
パターン认识と机械学习入门
パターン认识と机械学习入门
Momoko Hayamizu
?
Meta-Learning with Memory Augmented Neural Network
Meta-Learning with Memory Augmented Neural Network
Yusuke Watanabe
?
颁痴分野におけるサーベイ方法
颁痴分野におけるサーベイ方法
Hirokatsu Kataoka
?
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
Takuji Tahara
?
事业の进展とデータマネジメント体制の进歩(+プレトタイプの话)
事业の进展とデータマネジメント体制の进歩(+プレトタイプの话)
Tokoroten Nakayama
?
次元圧缩周りでの気付き&1细胞発现データにおける次元圧缩の利用例蔼第3回飞补肠辞诲别
次元圧缩周りでの気付き&1细胞発现データにおける次元圧缩の利用例蔼第3回飞补肠辞诲别
Hirotaka Matsumoto
?
初めてのグラフカット
初めてのグラフカット
Tsubasa Hirakawa
?

More from Ai Makabi (9)

Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
Ai Makabi
?
Python for Beginners ( #PyLadiesKyoto Meetup )
Python for Beginners ( #PyLadiesKyoto Meetup )
Ai Makabi
?
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知 #ml-professional
Ai Makabi
?
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2
Ai Makabi
?
Pyladies tokyo 20150123
Pyladies tokyo 20150123
Ai Makabi
?
Pycharm 4への誘い
Pycharm 4への誘い
Ai Makabi
?
PyLadies Tokyo 立ち上げのお知らせ
PyLadies Tokyo 立ち上げのお知らせ
Ai Makabi
?
闯耻濒颈补のススメ
闯耻濒颈补のススメ
Ai Makabi
?
バンディットアルゴリズム勉强会
バンディットアルゴリズム勉强会
Ai Makabi
?
Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
Ansibleを使ってローカル開発環境を作ろう ( #PyLadiesTokyo Meetup )
Ai Makabi
?
Python for Beginners ( #PyLadiesKyoto Meetup )
Python for Beginners ( #PyLadiesKyoto Meetup )
Ai Makabi
?
単純ベイズ法による異常検知 #ml-professional
単純ベイズ法による異常検知 #ml-professional
Ai Makabi
?
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2
ガンダムを見た事のない私が想像だけでガンダムを語る Ver.2
Ai Makabi
?
Pyladies tokyo 20150123
Pyladies tokyo 20150123
Ai Makabi
?
Pycharm 4への誘い
Pycharm 4への誘い
Ai Makabi
?
PyLadies Tokyo 立ち上げのお知らせ
PyLadies Tokyo 立ち上げのお知らせ
Ai Makabi
?
闯耻濒颈补のススメ
闯耻濒颈补のススメ
Ai Makabi
?
バンディットアルゴリズム勉强会
バンディットアルゴリズム勉强会
Ai Makabi
?
Ad

Chapter 01 #ml-professional