狠狠撸

狠狠撸Share a Scribd company logo
畳み込みニューラルネットワーク
の逆変換による画像生成
畳み込みニューラルネットワークが
なぜうまくいくのか?についての手がかり
古川
アドレス
tomohiro.furukawa (アットマーク) nextremer.com
株式会社
論文
Inverting Convolutional Networks
with Convolutional Networks
Alexey Dosovitskiy Thomas Brox
Department of Computer Science University of Freiburg, Germany
Quote [1]
留意事項
=引用に関して著作権上の問題がある場合
はご連絡ください
?内容の信憑性を
?必ずしも保証していません
?If there is any issue about copyright
about quotation, e-mail me, please.
e-mail
tomohiro.furukawa (atmark) nextremer.com
論文概要
畳み込みニューラルネット
<課題>
なぜうまくいくのか?
内部でどう学習している?
不明点がある
画像情報入力
出力
注)結合は一部省略
Quote from
[1]
物体認識などのタスクで
従来手法に比べ
高い精度を実現
[2, 3, 1, ……2, 3, 4]
[5, 6, 2, ……0, 1, 3]
……
論文概要
入力
注)結合は一部省略
各層に特徴量
[0, 2, 1, ……0, 4, 2]
[9, 3, 7, ……2, 1, 5]
目的:ネットワーク内部の状態を知りたい
出力
[4, 2, 6, ……3, 0, 8]
逆変換された画像から
各層の学習過程がわかる
解決法:画像に逆変換
(要するに各層の出力)
Quote from
[1]
Quote from
[1]
画像に逆変換する手法
本手法:元画像と逆変換画像を
比較して逆変換を学習させる
入力逆変換
元画像 逆変換画像
元特徴量誤差を最小にする
学習した重み
従来:出力された特徴量が
できるだけ近くなる
画像入力を探す
Quote from [1]
ネットワーク構成
畳み込み5層
全結合層3層
maxプーリング
活性化関数:Relu
畳み込みニューラルネット (refer[1]のAlexNet)
逆変換ニューラルネット(最終層逆変換の場合)
全結合層3層
逆畳み込み5層
活性化関数:leaky Relu
入力
逆変換
ネット
生成
注)結合は一部省略
逆変換ネットワーク
逆畳み込み層とは…1と2を行う
1.逆プーリング
2.畳み込み
p 0
0 0p q
r s
q 0
0 0
r 0
0 0
s 0
0 0
p 0
0 0
q 0
0 0
r 0
0 0
s 0
0 0
h11 h13h12
h21 h23h22
h31 h33h32
?チャネル数?
フィルタ
残りを
0で
埋める
ネットワーク構成
畳み込み5層
全結合層3層
maxプーリング
活性化関数:Relu
畳み込みニューラルネット (refer[1]のAlexNet)
逆変換ニューラルネット(最終層逆変換の場合)
全結合層3層
逆畳み込み5層
活性化関数:leaky Relu
入力
逆変換
ネット
生成
注)結合は一部省略
r(x)=x (x 0のとき)
r(x)=0.3?x (x<0のとき)
後は勾配降下法で学習
結果:逆変換画像
元画像
本論文
AE
[3]
refer
FC8Conv1 深い層
?Conv5→FC6で不明瞭さが増している
?従来手法[3]に比べて色?位置情報が改善
Quote
from [1]
画像復元誤差
?Conv5→FC6で誤差が増している
?Autoencoderが誤差が小さい
[1]より引用
正規化復元誤差
本論文
Auto
encoder
refer
[3]
Autoencoder学習
⒈?Alexnetで特徴量抽出
2.逆変換ネットワークで画像生成
本論文
+AE
[3]
refer
Alexnetのパラメータを
Autoencoderでさらに学習
<追加>
Quote from
[1]
色と位置情報の保存
?色を変えて分類
?分類結果の
?top5以外を
?0に変えて逆変換
?top5以外の情報が
?色?位置の
?復元に重要
Quote from [1]
色と位置情報の保存
?位置に情報が大まかに保存されている
?特にFC8では対称に情報が保存
(反転に強い可能性)
Quote from
[1]
特徴量ロバスト性の確認
1.バイナリ化
2.50%ドロップアウト
定数で置き換える[0, 2, 1, 0, 4, 2](例)
[0, a, a, 0, a, a]
特徴量ベクトル
ネットワークの特徴量を操作したとき
復元画像に変化があるのか?
(例) ランダムに選んだ
半分の要素を0にする
[0, 2, 1, 0, 4, 2]
[0, 0, 1b, 0, 0, 2b]
ベクトルのノルムは
変わらないように操作
特徴量ロバスト性の確認
バイ
ナリ
ドロップ
アウト
操作
なし
Quote from
[1]
?バイナリ化するより
?ドロップアウトの方が誤差が大きい
正規化復元誤差
バイナリ
ドロップ
アウト
操作なし
特徴量ロバスト性の確認
Quote from
[1]
特徴量ベクトル合成
2つの特徴量ベクトルを合成すると
FCレイヤから画像としても合成されている
Quote from
[1]
ランダムベクトルからの復元
FCレイヤの画像は元画像らしくなっており
ネットワークが学習できている根拠となる
各層の特徴量をヒストグラムにする
→それを基本にランダム特徴量ベクトル生成
Quote from
[1]
まとめ
?最終層を含むネットワークの全てのレイヤの
?特徴量は色?位置情報を保存していた
?出力された特徴量は個々の正確な数値より
?0でない値のパターンが重要
?最終層ではtop5の分類情報より
?top5以下の分類情報に
?色?位置などの情報が保存されている
会社紹介
社員数?20名?設立?2012年10月
開発技術?自然言語処理?画像認識
<PR用対話ロボット?A.I Samurai>
事業内容?人工知能テクノロジーを
取り入れた対話システムの開発
機械学習エンジニア募集
興味がある方は
オフィスへ1度、遊びに来てください
wantedly
「nextremer」
で検索
2015年12月現在

More Related Content

What's hot (20)

coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
京都大学大学院情报学研究科数理工学専攻
?
充足可能性问题のいろいろ
充足可能性问题のいろいろ充足可能性问题のいろいろ
充足可能性问题のいろいろ
Hiroshi Yamashita
?
辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话
辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话
辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话
Classi.corp
?
【DL輪読会】Transformers are Sample Efficient World Models
【DL輪読会】Transformers are Sample Efficient World Models【DL輪読会】Transformers are Sample Efficient World Models
【DL輪読会】Transformers are Sample Efficient World Models
Deep Learning JP
?
确率的バンディット问题
确率的バンディット问题确率的バンディット问题
确率的バンディット问题
jkomiyama
?
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
YumaMatsuoka
?
机械学习の理论と実践
机械学习の理论と実践机械学习の理论と実践
机械学习の理论と実践
Preferred Networks
?
机械学习のための数学のおさらい
机械学习のための数学のおさらい机械学习のための数学のおさらい
机械学习のための数学のおさらい
Hideo Terada
?
【DL輪読会】SUMO: Unbiased Estimation of Log Marginal Probability for Latent Varia...
【DL輪読会】SUMO: Unbiased Estimation of Log Marginal Probability for Latent Varia...【DL輪読会】SUMO: Unbiased Estimation of Log Marginal Probability for Latent Varia...
【DL輪読会】SUMO: Unbiased Estimation of Log Marginal Probability for Latent Varia...
Deep Learning JP
?
t-SNE
t-SNEt-SNE
t-SNE
貴之 八木
?
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
?
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
?
言语と画像の表现学习
言语と画像の表现学习言语と画像の表现学习
言语と画像の表现学习
Yuki Noguchi
?
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII
?
スハ?ースモデリング入门
スハ?ースモデリング入门スハ?ースモデリング入门
スハ?ースモデリング入门
Hideo Terada
?
劣モジュラ最适化と机械学习1章
劣モジュラ最适化と机械学习1章劣モジュラ最适化と机械学习1章
劣モジュラ最适化と机械学习1章
Hakky St
?
数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理
Taiji Suzuki
?
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
?
[DeepLearning論文読み会] Dataset Distillation
[DeepLearning論文読み会] Dataset Distillation[DeepLearning論文読み会] Dataset Distillation
[DeepLearning論文読み会] Dataset Distillation
Ryutaro Yamauchi
?
最适输送の解き方
最适输送の解き方最适输送の解き方
最适输送の解き方
joisino
?
充足可能性问题のいろいろ
充足可能性问题のいろいろ充足可能性问题のいろいろ
充足可能性问题のいろいろ
Hiroshi Yamashita
?
辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话
辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话
辫测尘肠と辫测蝉迟补苍でベイズ推定してみた话
Classi.corp
?
【DL輪読会】Transformers are Sample Efficient World Models
【DL輪読会】Transformers are Sample Efficient World Models【DL輪読会】Transformers are Sample Efficient World Models
【DL輪読会】Transformers are Sample Efficient World Models
Deep Learning JP
?
确率的バンディット问题
确率的バンディット问题确率的バンディット问题
确率的バンディット问题
jkomiyama
?
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
础耻迟辞别苍肠辞诲别谤の実装と愉快な仲间との比较
YumaMatsuoka
?
机械学习のための数学のおさらい
机械学习のための数学のおさらい机械学习のための数学のおさらい
机械学习のための数学のおさらい
Hideo Terada
?
【DL輪読会】SUMO: Unbiased Estimation of Log Marginal Probability for Latent Varia...
【DL輪読会】SUMO: Unbiased Estimation of Log Marginal Probability for Latent Varia...【DL輪読会】SUMO: Unbiased Estimation of Log Marginal Probability for Latent Varia...
【DL輪読会】SUMO: Unbiased Estimation of Log Marginal Probability for Latent Varia...
Deep Learning JP
?
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
?
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP
?
言语と画像の表现学习
言语と画像の表现学习言语と画像の表现学习
言语と画像の表现学习
Yuki Noguchi
?
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII
?
スハ?ースモデリング入门
スハ?ースモデリング入门スハ?ースモデリング入门
スハ?ースモデリング入门
Hideo Terada
?
劣モジュラ最适化と机械学习1章
劣モジュラ最适化と机械学习1章劣モジュラ最适化と机械学习1章
劣モジュラ最适化と机械学习1章
Hakky St
?
数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理
Taiji Suzuki
?
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing[DL輪読会]GLIDE: Guided Language to Image Diffusion  for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
?
[DeepLearning論文読み会] Dataset Distillation
[DeepLearning論文読み会] Dataset Distillation[DeepLearning論文読み会] Dataset Distillation
[DeepLearning論文読み会] Dataset Distillation
Ryutaro Yamauchi
?
最适输送の解き方
最适输送の解き方最适输送の解き方
最适输送の解き方
joisino
?

Viewers also liked (20)

「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット
Ken'ichi Matsui
?
MIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearningMIRU2014 tutorial deeplearning
MIRU2014 tutorial deeplearning
Takayoshi Yamashita
?
画像认识のための深层学习
画像认识のための深层学习画像认识のための深层学习
画像认识のための深层学习
Saya Katafuchi
?
Convolutional Neural Networks のトレンド @WBAFLカシ?ュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカシ?ュアルトーク#2Convolutional Neural Networks のトレンド @WBAFLカシ?ュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカシ?ュアルトーク#2
Daiki Shimada
?
SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)
Takanori Ogata
?
Deep Learning Class #1 - Go Deep or Go Home
Deep Learning Class #1 - Go Deep or Go HomeDeep Learning Class #1 - Go Deep or Go Home
Deep Learning Class #1 - Go Deep or Go Home
Holberton School
?
Decoupled Neural Interfaces using Synthetic Gradients
Decoupled Neural Interfaces using Synthetic GradientsDecoupled Neural Interfaces using Synthetic Gradients
Decoupled Neural Interfaces using Synthetic Gradients
tm_2648
?
【FIT2016チュートリアル】ここから始める情報処理 ~機械学習編~
【FIT2016チュートリアル】ここから始める情報処理  ~機械学習編~【FIT2016チュートリアル】ここから始める情報処理  ~機械学習編~
【FIT2016チュートリアル】ここから始める情報処理 ~機械学習編~
Toshihiko Yamasaki
?
Chainer with natural language processing hands on
Chainer with natural language processing hands onChainer with natural language processing hands on
Chainer with natural language processing hands on
Ogushi Masaya
?
Wikipedia Entity VectorとWordNetで?対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
Wikipedia Entity VectorとWordNetで?対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...Wikipedia Entity VectorとWordNetで?対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
Wikipedia Entity VectorとWordNetで?対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
Ogushi Masaya
?
人工知能の技術て?有名なニューラルネットワークのフレームワークて?ある #Chainer を用いた対話botを使った俺の屍を越えてゆけ slide share
人工知能の技術て?有名なニューラルネットワークのフレームワークて?ある #Chainer を用いた対話botを使った俺の屍を越えてゆけ  slide share人工知能の技術て?有名なニューラルネットワークのフレームワークて?ある #Chainer を用いた対話botを使った俺の屍を越えてゆけ  slide share
人工知能の技術て?有名なニューラルネットワークのフレームワークて?ある #Chainer を用いた対話botを使った俺の屍を越えてゆけ slide share
Ogushi Masaya
?
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
Ogushi Masaya
?
Step by Stepで学ぶ自然言語処理における深層学習の勘所
Step by Stepで学ぶ自然言語処理における深層学習の勘所Step by Stepで学ぶ自然言語処理における深層学習の勘所
Step by Stepで学ぶ自然言語処理における深層学習の勘所
Ogushi Masaya
?
自分たちでつくった&辩耻辞迟;鲍齿ガイドライン&辩耻辞迟;を片手に、クラウドワークスを作り変える。
自分たちでつくった&辩耻辞迟;鲍齿ガイドライン&辩耻辞迟;を片手に、クラウドワークスを作り変える。自分たちでつくった&辩耻辞迟;鲍齿ガイドライン&辩耻辞迟;を片手に、クラウドワークスを作り変える。
自分たちでつくった&辩耻辞迟;鲍齿ガイドライン&辩耻辞迟;を片手に、クラウドワークスを作り変える。
kazuma ueda
?
物理统计学分野(研究室)の案内
物理统计学分野(研究室)の案内物理统计学分野(研究室)の案内
物理统计学分野(研究室)の案内
京都大学大学院情报学研究科数理工学専攻
?
ニコニコ动画のコメント解析
ニコニコ动画のコメント解析ニコニコ动画のコメント解析
ニコニコ动画のコメント解析
Keisuke Ogaki
?
PyData NYC by Akira Shibata
PyData NYC by Akira ShibataPyData NYC by Akira Shibata
PyData NYC by Akira Shibata
Akira Shibata
?
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
tm_2648
?
Deep learningの軽い紹介
Deep learningの軽い紹介Deep learningの軽い紹介
Deep learningの軽い紹介
Yoshihisa Maruya
?
尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习
Takashi Kitano
?
「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット「深層学習」第6章 畳込みニューラルネット
「深層学習」第6章 畳込みニューラルネット
Ken'ichi Matsui
?
画像认识のための深层学习
画像认识のための深层学习画像认识のための深层学习
画像认识のための深层学习
Saya Katafuchi
?
Convolutional Neural Networks のトレンド @WBAFLカシ?ュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカシ?ュアルトーク#2Convolutional Neural Networks のトレンド @WBAFLカシ?ュアルトーク#2
Convolutional Neural Networks のトレンド @WBAFLカシ?ュアルトーク#2
Daiki Shimada
?
SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)SSD: Single Shot MultiBox Detector (ECCV2016)
SSD: Single Shot MultiBox Detector (ECCV2016)
Takanori Ogata
?
Deep Learning Class #1 - Go Deep or Go Home
Deep Learning Class #1 - Go Deep or Go HomeDeep Learning Class #1 - Go Deep or Go Home
Deep Learning Class #1 - Go Deep or Go Home
Holberton School
?
Decoupled Neural Interfaces using Synthetic Gradients
Decoupled Neural Interfaces using Synthetic GradientsDecoupled Neural Interfaces using Synthetic Gradients
Decoupled Neural Interfaces using Synthetic Gradients
tm_2648
?
【FIT2016チュートリアル】ここから始める情報処理 ~機械学習編~
【FIT2016チュートリアル】ここから始める情報処理  ~機械学習編~【FIT2016チュートリアル】ここから始める情報処理  ~機械学習編~
【FIT2016チュートリアル】ここから始める情報処理 ~機械学習編~
Toshihiko Yamasaki
?
Chainer with natural language processing hands on
Chainer with natural language processing hands onChainer with natural language processing hands on
Chainer with natural language processing hands on
Ogushi Masaya
?
Wikipedia Entity VectorとWordNetで?対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
Wikipedia Entity VectorとWordNetで?対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...Wikipedia Entity VectorとWordNetで?対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
Wikipedia Entity VectorとWordNetで?対話内容を選定し Chainer を用いたAttentionモデルで 発話内の重要な単語...
Ogushi Masaya
?
人工知能の技術て?有名なニューラルネットワークのフレームワークて?ある #Chainer を用いた対話botを使った俺の屍を越えてゆけ slide share
人工知能の技術て?有名なニューラルネットワークのフレームワークて?ある #Chainer を用いた対話botを使った俺の屍を越えてゆけ  slide share人工知能の技術て?有名なニューラルネットワークのフレームワークて?ある #Chainer を用いた対話botを使った俺の屍を越えてゆけ  slide share
人工知能の技術て?有名なニューラルネットワークのフレームワークて?ある #Chainer を用いた対話botを使った俺の屍を越えてゆけ slide share
Ogushi Masaya
?
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
自然言語処理に適した ニューラルネットのフレームワーク - - - DyNet - - -
Ogushi Masaya
?
Step by Stepで学ぶ自然言語処理における深層学習の勘所
Step by Stepで学ぶ自然言語処理における深層学習の勘所Step by Stepで学ぶ自然言語処理における深層学習の勘所
Step by Stepで学ぶ自然言語処理における深層学習の勘所
Ogushi Masaya
?
自分たちでつくった&辩耻辞迟;鲍齿ガイドライン&辩耻辞迟;を片手に、クラウドワークスを作り変える。
自分たちでつくった&辩耻辞迟;鲍齿ガイドライン&辩耻辞迟;を片手に、クラウドワークスを作り変える。自分たちでつくった&辩耻辞迟;鲍齿ガイドライン&辩耻辞迟;を片手に、クラウドワークスを作り変える。
自分たちでつくった&辩耻辞迟;鲍齿ガイドライン&辩耻辞迟;を片手に、クラウドワークスを作り変える。
kazuma ueda
?
ニコニコ动画のコメント解析
ニコニコ动画のコメント解析ニコニコ动画のコメント解析
ニコニコ动画のコメント解析
Keisuke Ogaki
?
PyData NYC by Akira Shibata
PyData NYC by Akira ShibataPyData NYC by Akira Shibata
PyData NYC by Akira Shibata
Akira Shibata
?
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
Deep Convolutional Generative Adversarial Networks - Nextremer勉強会資料
tm_2648
?
尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习尘虫苍别迟で顽张る深层学习
尘虫苍别迟で顽张る深层学习
Takashi Kitano
?

Similar to 畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり (8)

拡张机能の歴史と标準化
拡张机能の歴史と标準化拡张机能の歴史と标準化
拡张机能の歴史と标準化
Ryouyu Oonuma
?
TwYM
TwYMTwYM
TwYM
Kuniaki Igarashi
?
Deep Learningと画像認識   ~歴史?理論?実践~
Deep Learningと画像認識 ~歴史?理論?実践~Deep Learningと画像認識 ~歴史?理論?実践~
Deep Learningと画像認識   ~歴史?理論?実践~
nlab_utokyo
?
第1回 ネットワーク図について語る会 2015-08-27
第1回 ネットワーク図について語る会  2015-08-27第1回 ネットワーク図について語る会  2015-08-27
第1回 ネットワーク図について語る会 2015-08-27
Yasuo Igano
?
鸟肌必至のニューラルネットワークによる近未来の画像认识技术を体験し、滨辞罢の知られざるパワーを知る
鸟肌必至のニューラルネットワークによる近未来の画像认识技术を体験し、滨辞罢の知られざるパワーを知る鸟肌必至のニューラルネットワークによる近未来の画像认识技术を体験し、滨辞罢の知られざるパワーを知る
鸟肌必至のニューラルネットワークによる近未来の画像认识技术を体験し、滨辞罢の知られざるパワーを知る
Kazuki Nakajima
?
Convolutional Neural Network @ CV勉強会関東
Convolutional Neural Network @ CV勉強会関東Convolutional Neural Network @ CV勉強会関東
Convolutional Neural Network @ CV勉強会関東
Hokuto Kagaya
?
Creating and Using Links between Data Objects
Creating and Using Links between Data ObjectsCreating and Using Links between Data Objects
Creating and Using Links between Data Objects
Mitsuo Yamamoto
?
mi-8. 人工知能とコンピュータビジョン
mi-8. 人工知能とコンピュータビジョンmi-8. 人工知能とコンピュータビジョン
mi-8. 人工知能とコンピュータビジョン
kunihikokaneko1
?
拡张机能の歴史と标準化
拡张机能の歴史と标準化拡张机能の歴史と标準化
拡张机能の歴史と标準化
Ryouyu Oonuma
?
Deep Learningと画像認識   ~歴史?理論?実践~
Deep Learningと画像認識 ~歴史?理論?実践~Deep Learningと画像認識 ~歴史?理論?実践~
Deep Learningと画像認識   ~歴史?理論?実践~
nlab_utokyo
?
第1回 ネットワーク図について語る会 2015-08-27
第1回 ネットワーク図について語る会  2015-08-27第1回 ネットワーク図について語る会  2015-08-27
第1回 ネットワーク図について語る会 2015-08-27
Yasuo Igano
?
鸟肌必至のニューラルネットワークによる近未来の画像认识技术を体験し、滨辞罢の知られざるパワーを知る
鸟肌必至のニューラルネットワークによる近未来の画像认识技术を体験し、滨辞罢の知られざるパワーを知る鸟肌必至のニューラルネットワークによる近未来の画像认识技术を体験し、滨辞罢の知られざるパワーを知る
鸟肌必至のニューラルネットワークによる近未来の画像认识技术を体験し、滨辞罢の知られざるパワーを知る
Kazuki Nakajima
?
Convolutional Neural Network @ CV勉強会関東
Convolutional Neural Network @ CV勉強会関東Convolutional Neural Network @ CV勉強会関東
Convolutional Neural Network @ CV勉強会関東
Hokuto Kagaya
?
Creating and Using Links between Data Objects
Creating and Using Links between Data ObjectsCreating and Using Links between Data Objects
Creating and Using Links between Data Objects
Mitsuo Yamamoto
?
mi-8. 人工知能とコンピュータビジョン
mi-8. 人工知能とコンピュータビジョンmi-8. 人工知能とコンピュータビジョン
mi-8. 人工知能とコンピュータビジョン
kunihikokaneko1
?

畳み込みニューラルネットワークが なぜうまくいくのか?についての手がかり