狠狠撸

狠狠撸Share a Scribd company logo
読む人: 慶應義塾大学大学院
山本眞大
Context Gates for
Neural Machine Translation
最先端NLP勉強会
Zhaopeng Tu, Yang Liu, Zhengdong Lu, Xiaohua Liu, Hang Li (TACL2017)
※ 基本的に図表は原論文からの引用です。
概要 1
? NMTにおいて、sourceとtargetのcontextが
adequacyとfluencyにどう影響するかを調査
? sourceのcontext: adequacyに影響
? targetのcontext: fluencyに影響
adequacy: sourceの単語が正確に翻訳できているか
fluency : 単語のつながりの自然さ
? (直感的にも…)
? 内容語を生成する際: sourceのcontextを参照すべき
? 機能語を生成する際: targetのcontextを参照すべき
? 既存のNMT: 各contextを均一に扱う
→ sourceとtargetのcontextを動的に参照するための
gate (context gates)を提案
Neural Machine Translation 2
? 翻訳確率
? i番目の単語の生成確率
入力系列出力系列
Encoderの情報Decoderの隠れ層
線形変換を行った後、
sofrmax関数を適用する
Neural Machine Translation 3
? i番目のデコーダの隠れ層
単語ベクトルRNN
target context source context
Source & Target Contextの影響の調査 4
? 目的: sourceとtargetのcontextが
adequacyとfluencyに影響するかを調査
? 方法:デコーダの隠れ層の計算方法を変更
? 一般的な計算方法
? 今回の計算方法
target context source context
スカラー値
スカラー値
Source & Target Contextの影響の調査 5
? 定性的な調査
(a, b) = (1.0, 0.5)
Fluencyが低い
(a, b) = (0.5, 1.0)
Adequacyが低い
Source & Target Contextの影響の調査 6
? 翻訳の長さについての調査
? targetの割合を減少
→ 長い文が生成されやすい
? sourceの割合を減少
→ 短い文が生成されやすい
Source & Target Contextの影響の調査 7
? AdequacyとFluencyに関する調査
? sourceの割合を減少
→ Adequecyが減少
? targetの割合を減少
→ Fluencyが減少
+ Adequecyも減少
なぜ?
?繰り返しによる生成長の限界
Context Gatesを導入したNMT 8
? Context gatesの基本的な構成
? 各contextをどの程度利用するか計算 ( )
? 各context と を要素毎に乗算
? sourceのみ: source
? targetのみ : target
? 両方 : both
Context Gatesを導入したNMT 9
? source: sourceのcontextと を要素毎に乗算
※ 一般的な計算方法
要素積
Context Gatesを導入したNMT 10
? target: targetのcontextと を要素毎に乗算
※ 一般的な計算方法
Context Gatesを導入したNMT 11
? both: 両方のcontextと を要素毎に乗算
※ 一般的な計算方法
実験 12
? 中英翻訳
? LDCコーパス (1.25M 対訳対)
? 実験内容
? 翻訳の質の評価 (BLEU, 主観)
? アライメントの質の評価
? ネットワーク構造の分析
? 文長の影響の調査
? 比較手法
? Moses: SMT
? GroundHog: NMT
? GroundHog-Coverge: 被覆を導入したNMT
実験 13
? 翻訳の質の評価: BLEUによる評価
? #2-4: パラメータを減らしつつ、GRUと同じくらいの性能
? #4-7: 提案手法による性能の向上、bothが一番良い性能
? #1, 8-9: 提案手法による性能の向上、SMTよりも高い性能
実験 14
? 翻訳の質の評価: 主観評価
? ランダム選択した200文を2名の主観で評価
? 出力された2文を見てどちらが良いか判断
? 結果
? Adequacy: 30%良, 52%同じ, 18%悪
? Fluency : 29%良, 52%同じ, 19%悪
実験 15
? アライメントの質の評価
? GroundHogにcontext gateを加えても良くならない
? 被覆の概念を導入したモデルに加えると良くなる
※ 低いほうが良い
実験 16
? アライメントの質の評価
実験 17
? ネットワーク構造の分析
? #2-3: 要素積により性能が向上
? #3-4: 両方参照したほうがいい
? #4-5: Encoderの情報を使ったほうがいい
? #5-6: 1個前に生成された単語の情報は有用
実験 18
? 文長の影響の調査
? 長い文についても、GroundHog ほど精度が落ちない
まとめ 19
? 各contextがadequacyとfluencyにどう影響するか調査
? source context: adequacyに影響
? target context : fluencyに影響
? context gateを提案
? 動的に各contextの影響をコントロール可能

More Related Content

What's hot (17)

Nl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov ModelNl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov Model
Kei Uchiumi
?
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
?
Acl reading 2nd
Acl reading 2ndAcl reading 2nd
Acl reading 2nd
Ace12358
?
闯-尝滨奥颁2015の绍介
闯-尝滨奥颁2015の绍介闯-尝滨奥颁2015の绍介
闯-尝滨奥颁2015の绍介
igarashilab
?
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
hoxo_m
?
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
hoxo_m
?
[Paper Reading] The price of debasing automatic metrics in natural language e...
[Paper Reading] The price of debasing automatic metrics in natural language e...[Paper Reading] The price of debasing automatic metrics in natural language e...
[Paper Reading] The price of debasing automatic metrics in natural language e...
Kazutoshi Shinoda
?
Summary: A Sense-Based Translation Model for Statistical Machine Translation
Summary: A Sense-Based Translation Model for Statistical Machine TranslationSummary: A Sense-Based Translation Model for Statistical Machine Translation
Summary: A Sense-Based Translation Model for Statistical Machine Translation
Hiroshi Matsumoto
?
Python nlp handson_20220225_v5
Python nlp handson_20220225_v5Python nlp handson_20220225_v5
Python nlp handson_20220225_v5
博三 太田
?
2021年度 人工知能学会全国大会 第35回
2021年度 人工知能学会全国大会 第35回2021年度 人工知能学会全国大会 第35回
2021年度 人工知能学会全国大会 第35回
博三 太田
?
Japan.r 2018 slide ota_20181201
Japan.r 2018 slide ota_20181201Japan.r 2018 slide ota_20181201
Japan.r 2018 slide ota_20181201
博三 太田
?
Sigconf 2019 slide_ota_20191123
Sigconf 2019 slide_ota_20191123Sigconf 2019 slide_ota_20191123
Sigconf 2019 slide_ota_20191123
博三 太田
?
Logics 18th ota_20211201
Logics 18th ota_20211201Logics 18th ota_20211201
Logics 18th ota_20211201
博三 太田
?
対话テキストの自动要约
対话テキストの自动要约対话テキストの自动要约
対话テキストの自动要约
Masahiro Yamamoto
?
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
schoowebcampus
?
09 manual writing20130611sample
09 manual writing20130611sample09 manual writing20130611sample
09 manual writing20130611sample
和也 高山
?
Nl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov ModelNl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov Model
Kei Uchiumi
?
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
hoxo_m
?
Acl reading 2nd
Acl reading 2ndAcl reading 2nd
Acl reading 2nd
Ace12358
?
闯-尝滨奥颁2015の绍介
闯-尝滨奥颁2015の绍介闯-尝滨奥颁2015の绍介
闯-尝滨奥颁2015の绍介
igarashilab
?
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本トピックモデルの評価指標 Coherence 研究まとめ #トピ本
トピックモデルの評価指標 Coherence 研究まとめ #トピ本
hoxo_m
?
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
トピックモデルによる統計的潜在意味解析読書会 3.7 評価方法 - 3.9 モデル選択 #トピ本
hoxo_m
?
[Paper Reading] The price of debasing automatic metrics in natural language e...
[Paper Reading] The price of debasing automatic metrics in natural language e...[Paper Reading] The price of debasing automatic metrics in natural language e...
[Paper Reading] The price of debasing automatic metrics in natural language e...
Kazutoshi Shinoda
?
Summary: A Sense-Based Translation Model for Statistical Machine Translation
Summary: A Sense-Based Translation Model for Statistical Machine TranslationSummary: A Sense-Based Translation Model for Statistical Machine Translation
Summary: A Sense-Based Translation Model for Statistical Machine Translation
Hiroshi Matsumoto
?
Python nlp handson_20220225_v5
Python nlp handson_20220225_v5Python nlp handson_20220225_v5
Python nlp handson_20220225_v5
博三 太田
?
2021年度 人工知能学会全国大会 第35回
2021年度 人工知能学会全国大会 第35回2021年度 人工知能学会全国大会 第35回
2021年度 人工知能学会全国大会 第35回
博三 太田
?
Japan.r 2018 slide ota_20181201
Japan.r 2018 slide ota_20181201Japan.r 2018 slide ota_20181201
Japan.r 2018 slide ota_20181201
博三 太田
?
Sigconf 2019 slide_ota_20191123
Sigconf 2019 slide_ota_20191123Sigconf 2019 slide_ota_20191123
Sigconf 2019 slide_ota_20191123
博三 太田
?
Logics 18th ota_20211201
Logics 18th ota_20211201Logics 18th ota_20211201
Logics 18th ota_20211201
博三 太田
?
対话テキストの自动要约
対话テキストの自动要约対话テキストの自动要约
対话テキストの自动要约
Masahiro Yamamoto
?
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
【Schoo web campus】「相手に伝わる」文章を書く技術 2限目
schoowebcampus
?
09 manual writing20130611sample
09 manual writing20130611sample09 manual writing20130611sample
09 manual writing20130611sample
和也 高山
?

Recently uploaded (11)

测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
sugiuralab
?
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
Industrial Technology Research Institute (ITRI)(工業技術研究院, 工研院)
?
LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3
LFDT Tokyo Meetup
?
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
harmonylab
?
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
Matsushita Laboratory
?
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
Matsushita Laboratory
?
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
CRI Japan, Inc.
?
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
NTT DATA Technology & Innovation
?
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
Matsushita Laboratory
?
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
sugiuralab
?
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
harmonylab
?
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
sugiuralab
?
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
Industrial Technology Research Institute (ITRI)(工業技術研究院, 工研院)
?
LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3
LFDT Tokyo Meetup
?
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
harmonylab
?
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
Matsushita Laboratory
?
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
Matsushita Laboratory
?
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
CRI Japan, Inc.
?
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
NTT DATA Technology & Innovation
?
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
Matsushita Laboratory
?
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
sugiuralab
?
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
harmonylab
?

最先端NLP勉強会 Context Gates for Neural Machine Translation

  • 1. 読む人: 慶應義塾大学大学院 山本眞大 Context Gates for Neural Machine Translation 最先端NLP勉強会 Zhaopeng Tu, Yang Liu, Zhengdong Lu, Xiaohua Liu, Hang Li (TACL2017) ※ 基本的に図表は原論文からの引用です。
  • 2. 概要 1 ? NMTにおいて、sourceとtargetのcontextが adequacyとfluencyにどう影響するかを調査 ? sourceのcontext: adequacyに影響 ? targetのcontext: fluencyに影響 adequacy: sourceの単語が正確に翻訳できているか fluency : 単語のつながりの自然さ ? (直感的にも…) ? 内容語を生成する際: sourceのcontextを参照すべき ? 機能語を生成する際: targetのcontextを参照すべき ? 既存のNMT: 各contextを均一に扱う → sourceとtargetのcontextを動的に参照するための gate (context gates)を提案
  • 3. Neural Machine Translation 2 ? 翻訳確率 ? i番目の単語の生成確率 入力系列出力系列 Encoderの情報Decoderの隠れ層 線形変換を行った後、 sofrmax関数を適用する
  • 4. Neural Machine Translation 3 ? i番目のデコーダの隠れ層 単語ベクトルRNN target context source context
  • 5. Source & Target Contextの影響の調査 4 ? 目的: sourceとtargetのcontextが adequacyとfluencyに影響するかを調査 ? 方法:デコーダの隠れ層の計算方法を変更 ? 一般的な計算方法 ? 今回の計算方法 target context source context スカラー値 スカラー値
  • 6. Source & Target Contextの影響の調査 5 ? 定性的な調査 (a, b) = (1.0, 0.5) Fluencyが低い (a, b) = (0.5, 1.0) Adequacyが低い
  • 7. Source & Target Contextの影響の調査 6 ? 翻訳の長さについての調査 ? targetの割合を減少 → 長い文が生成されやすい ? sourceの割合を減少 → 短い文が生成されやすい
  • 8. Source & Target Contextの影響の調査 7 ? AdequacyとFluencyに関する調査 ? sourceの割合を減少 → Adequecyが減少 ? targetの割合を減少 → Fluencyが減少 + Adequecyも減少 なぜ? ?繰り返しによる生成長の限界
  • 9. Context Gatesを導入したNMT 8 ? Context gatesの基本的な構成 ? 各contextをどの程度利用するか計算 ( ) ? 各context と を要素毎に乗算 ? sourceのみ: source ? targetのみ : target ? 両方 : both
  • 10. Context Gatesを導入したNMT 9 ? source: sourceのcontextと を要素毎に乗算 ※ 一般的な計算方法 要素積
  • 11. Context Gatesを導入したNMT 10 ? target: targetのcontextと を要素毎に乗算 ※ 一般的な計算方法
  • 12. Context Gatesを導入したNMT 11 ? both: 両方のcontextと を要素毎に乗算 ※ 一般的な計算方法
  • 13. 実験 12 ? 中英翻訳 ? LDCコーパス (1.25M 対訳対) ? 実験内容 ? 翻訳の質の評価 (BLEU, 主観) ? アライメントの質の評価 ? ネットワーク構造の分析 ? 文長の影響の調査 ? 比較手法 ? Moses: SMT ? GroundHog: NMT ? GroundHog-Coverge: 被覆を導入したNMT
  • 14. 実験 13 ? 翻訳の質の評価: BLEUによる評価 ? #2-4: パラメータを減らしつつ、GRUと同じくらいの性能 ? #4-7: 提案手法による性能の向上、bothが一番良い性能 ? #1, 8-9: 提案手法による性能の向上、SMTよりも高い性能
  • 15. 実験 14 ? 翻訳の質の評価: 主観評価 ? ランダム選択した200文を2名の主観で評価 ? 出力された2文を見てどちらが良いか判断 ? 結果 ? Adequacy: 30%良, 52%同じ, 18%悪 ? Fluency : 29%良, 52%同じ, 19%悪
  • 16. 実験 15 ? アライメントの質の評価 ? GroundHogにcontext gateを加えても良くならない ? 被覆の概念を導入したモデルに加えると良くなる ※ 低いほうが良い
  • 18. 実験 17 ? ネットワーク構造の分析 ? #2-3: 要素積により性能が向上 ? #3-4: 両方参照したほうがいい ? #4-5: Encoderの情報を使ったほうがいい ? #5-6: 1個前に生成された単語の情報は有用
  • 19. 実験 18 ? 文長の影響の調査 ? 長い文についても、GroundHog ほど精度が落ちない
  • 20. まとめ 19 ? 各contextがadequacyとfluencyにどう影響するか調査 ? source context: adequacyに影響 ? target context : fluencyに影響 ? context gateを提案 ? 動的に各contextの影響をコントロール可能