狠狠撸

狠狠撸Share a Scribd company logo
NIPS2015読み会
End-To-End Memory Networks
S. Sukhbaatar, A. Szlam,
J. Weston, R. Fergus
Preferred Infrastructure
海野? 裕也(@unnonouno)
図はすべて元論文から引用	
2016/01/20 NIPS2015読み会@ドワンゴ
Memory networks
l?? 2013年年辺りからFacebookが取り組んでいる
テーマ
l?? ?自然?文で与えられた事実を記憶し、質問に対し
て?自然に答えるフレームワークを考えている
l?? 今回の話は、全体の仕組みをend-to-endで学習
する
2
これ、1年年前の
論論?文だよね
3
4
今?日話すわけ
l?? 春にChainerで再実装した時、ちゃんと動かな
かった
l?? 年年末に作りなおしたら、ちゃんと動いた(デー
タ読むところのバグだった)
l?? トータルで300?行行くらい
l?? Chainer上での対応を交えながら解説
5
対象のタスク:bAbI task
l?? ?人が部屋の中を?行行動した事実が書かれていて、途中途中
で簡単な質問をされる
l?? 極めて?人?工的なタスクで、語彙も?非常に限られている
(177語彙)
6
定式化
l?? ?入?力力
l?? 知識識源: {x1, x2, … , xn}
l?? 質問: q
l?? それぞれ?自然?文(任意??長の単語列列=整数列列)
l?? 出?力力
l?? 質問への回答: a (単?一の単語=整数)
l?? パラメータ
l?? 埋め込みベクトル?行行列列: A, B, C (d x V次元)
l?? 回答?用?行行列列: W (V x d次元)
l?? d: 埋め込みベクトルの次元数、V: 語彙数
7
?手法概要
8
?文のエンコード
l?? 埋め込みベクトルの和にするだけ
l?? F.sum(model.A(x), axis=1)
9	
語彙数 V	
次
元
数
n	
1 3 2 5 1x=	
単語ID
∑	
 =
検索索?用の「記憶」を作る
l?? ?入?力力?文xiを埋め込みベクトルAで、先の要領領でベクトル
miに直す
10	
1 3 2 5 1x1=	
4 3 1 7x2=	
1 3 4 8 9x3=	
	
m1	
m2	
m3	
m4	
???	
A
クエリのエンコード
l?? クエリは別の埋め込みBで、同様にエンコードしてuに
する
11	
B	
 3 4 1 7 9q =	
u =
記憶の重要度度を計算する
l?? 各miとuの内積を取って、Softmaxにかけて、?文の重要
度度をはかり、piとする(Attention)
l?? p = F.softmax(F.batch_matmul(m, u))
12	
m1	
m2	
m3	
m4	
u	
p1	
 p2	
 p3	
 p4	
 pi = softmax(mi
Tu)
回答?用の「記憶」を作る
各?文xiは埋め込みCを使って別のベクトルciを作る
13	
1 3 2 5 1x1=	
4 3 1 7x2=	
1 3 4 8 9x3=	
	
c1	
 c2	
 c3	
 c4	
???	
C
回答?用の知識識をまとめる
l?? ciをpiで重みづけして線形和を取ってoとする
l?? o = F.batch_matmul(F.swapaxes(c ,2, 1), p)
14	
p1	
 p2	
 p3	
 p4	
c1	
 c2	
 c3	
 c4	
x	
∑	
 =	
o
回答を?生成する
l?? もとの質問uとoを?足して、できたベクトルをWにかけて
答えを得る
l?? loss = F.softmax_cross_entropy(model.W(u + o), a)
15	
o	
 u	
+	
 W
おさらい
l?? 知識識源xiはAを使ってmiに、Cを使ってciに
l?? 質問qはBを使ってuに
l?? miとuの内積とsoftmaxを取って、各知識識に対す
る重みpiに
l?? ciをpiで重み付き和を取ってoに
l?? o + uをWにかけて、期待する答えaとの
softmax cross entropyをlossとする
16
これって何しているんだろう?
17	
類似ベクトルで
検索索している雰囲気
BoWでベク
トル化
答え情報が
埋め込まれる?
答えを選択?
多層化
l?? 先の処理理の出?力力を、次の
層の?入?力力に使う
l?? 何回も使う
l?? 複数の?文からしか帰結で
きないことを回答でき
る?
18
ここから細かい?工夫が沢?山
19
重みに対する制約
l?? Adjacent
l?? 上位階層との重みベクトルを共通にする
l?? Ak+t = Ck
l?? B = A1
l?? これは重みpiの計算のときに、qもxも同じエン
コードをすることを?言っている
l?? Layer-wise
l?? A1 = A2 = …
l?? C1 = C2 = …
20	
基本、こちらを使う
時間に対する調整(temporal encoding)
l?? 新しい知識識を選んで欲しいので、時刻に対して重みをつ
ける
l?? さらっと書いてあるが、これがないと新しい情報が重要
ということがわからないので、根本的に?大事な(そして
雑な)?工夫
21	
時刻に応じたベクトルを?足す
x1 = Sam walks into the kitchen
x2 = Sam walks into the bedroom
q = Where is Sam?
20種類の異異なる種類の質問への正解率率率
22	
※多層化は3段、Adjacent制約
※数字は小さいほうがよい	
ヒントを使った学習なので
スコアが良良い
単語の位置に対する調整(position encoding)
l?? 流流?石に単なる埋め込みベクトルの総和は気が引ける
l?? ?文中の位置に応じて重みをかえる
23	
単語ごとの重み
位置に基づいて計算
PEの効果
24
さらに?色々???
l??Linear start (LS)
l?? 学習初期の段階ではsoftmax層を抜いて、学
習を早める
l?? Random noise (RN)
l?? 学習時に10%の空の記憶をいれる
l?? 正則化の効果がある?
25
最終結果
26	
だいぶ良良くなった!
?言語モデルによる実験(おまけ?)
l?? ?文の代わりに全部?文字だと思う(単?一の埋め込
みベクトル)
l?? 質問は定数ベクトル
l?? 回答は次の単語
l?? 感覚的には何?文字前の単語の、どういう情報を
使って次を予測するか学習する
27
結果だけ
28
所感
l?? 事実を覚えて回答する、という記憶?質問?回
答の?一連のプロセスをend-to-endにやるという、
?方向性を?示したのがポイント
l?? タスク?自体は依然としてトイタスクだが、徐々
に現実のタスクに近づけていくと思われる
l?? ヒューリスティックは極めて多く、?工夫のしど
ころは多い
29
まとめ
l?? 複数の?文からなる事実から、質問に答えるタス
クを、end-to-endで学習する?手法を提案した
l?? 単語の埋め込み、?文のエンコード、各事実に対
するattention、回答の?生成までを単?一のネット
ワークにする
l?? トイタスクだが、平均エラー率率率6%程度度まで達成
した
l?? ヒューリスティックは極めて多い
30

More Related Content

What's hot (20)

混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
Takao Yamanaka
?
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
Kosuke Shinoda
?
動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )
cvpaper. challenge
?
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
?
ドメイン适応の原理と応用
ドメイン适応の原理と応用ドメイン适応の原理と応用
ドメイン适応の原理と応用
Yoshitaka Ushiku
?
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
?
12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf
幸太朗 岩澤
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
?
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
?
画像処理础滨を用いた异常検知
画像処理础滨を用いた异常検知画像処理础滨を用いた异常検知
画像処理础滨を用いた异常検知
Hideo Terada
?
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
Deep Learning JP
?
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP
?
数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理
Taiji Suzuki
?
翱辫迟颈尘颈锄别谤入门&最新动向
翱辫迟颈尘颈锄别谤入门&最新动向翱辫迟颈尘颈锄别谤入门&最新动向
翱辫迟颈尘颈锄别谤入门&最新动向
Motokawa Tetsuya
?
厂贬础笔値の考え方を理解する(木构造编)
厂贬础笔値の考え方を理解する(木构造编)厂贬础笔値の考え方を理解する(木构造编)
厂贬础笔値の考え方を理解する(木构造编)
Kazuyuki Wakasugi
?
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
?
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
?
【メタサーベイ】数式ドリブン教师あり学习
【メタサーベイ】数式ドリブン教师あり学习【メタサーベイ】数式ドリブン教师あり学习
【メタサーベイ】数式ドリブン教师あり学习
cvpaper. challenge
?
全力解説!罢谤补苍蝉蹿辞谤尘别谤
全力解説!罢谤补苍蝉蹿辞谤尘别谤全力解説!罢谤补苍蝉蹿辞谤尘别谤
全力解説!罢谤补苍蝉蹿辞谤尘别谤
Arithmer Inc.
?
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
混合モデルと贰惭アルゴリズム(笔搁惭尝第9章)
Takao Yamanaka
?
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
Kosuke Shinoda
?
動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )動画認識サーベイv1(メタサーベイ )
動画認識サーベイv1(メタサーベイ )
cvpaper. challenge
?
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
?
ドメイン适応の原理と応用
ドメイン适応の原理と応用ドメイン适応の原理と応用
ドメイン适応の原理と応用
Yoshitaka Ushiku
?
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
?
12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf12. Diffusion Model の数学的基礎.pdf
12. Diffusion Model の数学的基礎.pdf
幸太朗 岩澤
?
笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」笔搁惭尝第6章「カーネル法」
笔搁惭尝第6章「カーネル法」
Keisuke Sugawara
?
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
?
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
?
画像処理础滨を用いた异常検知
画像処理础滨を用いた异常検知画像処理础滨を用いた异常検知
画像処理础滨を用いた异常検知
Hideo Terada
?
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
Deep Learning JP
?
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
Deep Learning JP
?
数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理
Taiji Suzuki
?
翱辫迟颈尘颈锄别谤入门&最新动向
翱辫迟颈尘颈锄别谤入门&最新动向翱辫迟颈尘颈锄别谤入门&最新动向
翱辫迟颈尘颈锄别谤入门&最新动向
Motokawa Tetsuya
?
厂贬础笔値の考え方を理解する(木构造编)
厂贬础笔値の考え方を理解する(木构造编)厂贬础笔値の考え方を理解する(木构造编)
厂贬础笔値の考え方を理解する(木构造编)
Kazuyuki Wakasugi
?
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
?
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII2021 [OS2-02] 深層学習におけるデータ拡張の原理と最新動向
SSII
?
【メタサーベイ】数式ドリブン教师あり学习
【メタサーベイ】数式ドリブン教师あり学习【メタサーベイ】数式ドリブン教师あり学习
【メタサーベイ】数式ドリブン教师あり学习
cvpaper. challenge
?
全力解説!罢谤补苍蝉蹿辞谤尘别谤
全力解説!罢谤补苍蝉蹿辞谤尘别谤全力解説!罢谤补苍蝉蹿辞谤尘别谤
全力解説!罢谤补苍蝉蹿辞谤尘别谤
Arithmer Inc.
?

More from Yuya Unno (20)

深层学习で切り拓くパーソナルロボットの未来
深层学习で切り拓くパーソナルロボットの未来深层学习で切り拓くパーソナルロボットの未来
深层学习で切り拓くパーソナルロボットの未来
Yuya Unno
?
深層学習時代の 自然言語処理ビジネス
深層学習時代の自然言語処理ビジネス深層学習時代の自然言語処理ビジネス
深層学習時代の 自然言語処理ビジネス
Yuya Unno
?
ベンチャー公司で言叶を扱うロボットの研究开発をする
ベンチャー公司で言叶を扱うロボットの研究开発をするベンチャー公司で言叶を扱うロボットの研究开発をする
ベンチャー公司で言叶を扱うロボットの研究开発をする
Yuya Unno
?
PFNにおける セミナー活動
PFNにおけるセミナー活動PFNにおけるセミナー活動
PFNにおける セミナー活動
Yuya Unno
?
深層学習フレームワーク Chainerとその進化
深層学習フレームワークChainerとその進化深層学習フレームワークChainerとその進化
深層学習フレームワーク Chainerとその進化
Yuya Unno
?
进化する颁丑补颈苍别谤
进化する颁丑补颈苍别谤进化する颁丑补颈苍别谤
进化する颁丑补颈苍别谤
Yuya Unno
?
予测型戦略を知るための机械学习チュートリアル
予测型戦略を知るための机械学习チュートリアル予测型戦略を知るための机械学习チュートリアル
予测型戦略を知るための机械学习チュートリアル
Yuya Unno
?
深层学习による机械とのコミュニケーション
深层学习による机械とのコミュニケーション深层学习による机械とのコミュニケーション
深层学习による机械とのコミュニケーション
Yuya Unno
?
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
Yuya Unno
?
Chainer, Cupy入門
Chainer, Cupy入門Chainer, Cupy入門
Chainer, Cupy入門
Yuya Unno
?
颁丑补颈苍别谤のテスト环境と顿辞肠办别谤での颁鲍顿础の利用
颁丑补颈苍别谤のテスト环境と顿辞肠办别谤での颁鲍顿础の利用颁丑补颈苍别谤のテスト环境と顿辞肠办别谤での颁鲍顿础の利用
颁丑补颈苍别谤のテスト环境と顿辞肠办别谤での颁鲍顿础の利用
Yuya Unno
?
深层学习フレームワーク颁丑补颈苍别谤の特徴
深层学习フレームワーク颁丑补颈苍别谤の特徴深层学习フレームワーク颁丑补颈苍别谤の特徴
深层学习フレームワーク颁丑补颈苍别谤の特徴
Yuya Unno
?
子供の言语获得と机械の言语获得
子供の言语获得と机械の言语获得子供の言语获得と机械の言语获得
子供の言语获得と机械の言语获得
Yuya Unno
?
颁丑补颈苍别谤入门と最近の机能
颁丑补颈苍别谤入门と最近の机能颁丑补颈苍别谤入门と最近の机能
颁丑补颈苍别谤入门と最近の机能
Yuya Unno
?
Chainerの使い方と 自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と 自然言語処理への応用
Yuya Unno
?
骋笔鲍上での狈尝笔向け深层学习の実装について
骋笔鲍上での狈尝笔向け深层学习の実装について骋笔鲍上での狈尝笔向け深层学习の実装について
骋笔鲍上での狈尝笔向け深层学习の実装について
Yuya Unno
?
言语と知识の深层学习蔼认知科学会サマースクール
言语と知识の深层学习蔼认知科学会サマースクール言语と知识の深层学习蔼认知科学会サマースクール
言语と知识の深层学习蔼认知科学会サマースクール
Yuya Unno
?
公司における自然言语処理技术利用の最先端
公司における自然言语処理技术利用の最先端公司における自然言语処理技术利用の最先端
公司における自然言语処理技术利用の最先端
Yuya Unno
?
「知識」のDeep Learning
「知識」のDeep Learning「知識」のDeep Learning
「知識」のDeep Learning
Yuya Unno
?
自然言语処理蔼春の情报処理祭
自然言语処理蔼春の情报処理祭自然言语処理蔼春の情报処理祭
自然言语処理蔼春の情报処理祭
Yuya Unno
?
深层学习で切り拓くパーソナルロボットの未来
深层学习で切り拓くパーソナルロボットの未来深层学习で切り拓くパーソナルロボットの未来
深层学习で切り拓くパーソナルロボットの未来
Yuya Unno
?
深層学習時代の 自然言語処理ビジネス
深層学習時代の自然言語処理ビジネス深層学習時代の自然言語処理ビジネス
深層学習時代の 自然言語処理ビジネス
Yuya Unno
?
ベンチャー公司で言叶を扱うロボットの研究开発をする
ベンチャー公司で言叶を扱うロボットの研究开発をするベンチャー公司で言叶を扱うロボットの研究开発をする
ベンチャー公司で言叶を扱うロボットの研究开発をする
Yuya Unno
?
PFNにおける セミナー活動
PFNにおけるセミナー活動PFNにおけるセミナー活動
PFNにおける セミナー活動
Yuya Unno
?
深層学習フレームワーク Chainerとその進化
深層学習フレームワークChainerとその進化深層学習フレームワークChainerとその進化
深層学習フレームワーク Chainerとその進化
Yuya Unno
?
进化する颁丑补颈苍别谤
进化する颁丑补颈苍别谤进化する颁丑补颈苍别谤
进化する颁丑补颈苍别谤
Yuya Unno
?
予测型戦略を知るための机械学习チュートリアル
予测型戦略を知るための机械学习チュートリアル予测型戦略を知るための机械学习チュートリアル
予测型戦略を知るための机械学习チュートリアル
Yuya Unno
?
深层学习による机械とのコミュニケーション
深层学习による机械とのコミュニケーション深层学习による机械とのコミュニケーション
深层学习による机械とのコミュニケーション
Yuya Unno
?
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...最先端NLP勉強会“Learning Language Games through Interaction”Sida I. Wang, Percy L...
最先端NLP勉強会 “Learning Language Games through Interaction” Sida I. Wang, Percy L...
Yuya Unno
?
Chainer, Cupy入門
Chainer, Cupy入門Chainer, Cupy入門
Chainer, Cupy入門
Yuya Unno
?
颁丑补颈苍别谤のテスト环境と顿辞肠办别谤での颁鲍顿础の利用
颁丑补颈苍别谤のテスト环境と顿辞肠办别谤での颁鲍顿础の利用颁丑补颈苍别谤のテスト环境と顿辞肠办别谤での颁鲍顿础の利用
颁丑补颈苍别谤のテスト环境と顿辞肠办别谤での颁鲍顿础の利用
Yuya Unno
?
深层学习フレームワーク颁丑补颈苍别谤の特徴
深层学习フレームワーク颁丑补颈苍别谤の特徴深层学习フレームワーク颁丑补颈苍别谤の特徴
深层学习フレームワーク颁丑补颈苍别谤の特徴
Yuya Unno
?
子供の言语获得と机械の言语获得
子供の言语获得と机械の言语获得子供の言语获得と机械の言语获得
子供の言语获得と机械の言语获得
Yuya Unno
?
颁丑补颈苍别谤入门と最近の机能
颁丑补颈苍别谤入门と最近の机能颁丑补颈苍别谤入门と最近の机能
颁丑补颈苍别谤入门と最近の机能
Yuya Unno
?
Chainerの使い方と 自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と 自然言語処理への応用
Yuya Unno
?
骋笔鲍上での狈尝笔向け深层学习の実装について
骋笔鲍上での狈尝笔向け深层学习の実装について骋笔鲍上での狈尝笔向け深层学习の実装について
骋笔鲍上での狈尝笔向け深层学习の実装について
Yuya Unno
?
言语と知识の深层学习蔼认知科学会サマースクール
言语と知识の深层学习蔼认知科学会サマースクール言语と知识の深层学习蔼认知科学会サマースクール
言语と知识の深层学习蔼认知科学会サマースクール
Yuya Unno
?
公司における自然言语処理技术利用の最先端
公司における自然言语処理技术利用の最先端公司における自然言语処理技术利用の最先端
公司における自然言语処理技术利用の最先端
Yuya Unno
?
「知識」のDeep Learning
「知識」のDeep Learning「知識」のDeep Learning
「知識」のDeep Learning
Yuya Unno
?
自然言语処理蔼春の情报処理祭
自然言语処理蔼春の情报処理祭自然言语処理蔼春の情报処理祭
自然言语処理蔼春の情报処理祭
Yuya Unno
?

NIP2015読み会「End-To-End Memory Networks」