12. Proposed Methods > Encoder-Decoder Model with Aligned
Inputs ①
? ①Alignment情報を, slot-fillingとintent-detectionタスクを遂?するため
にencoder-decoder構造に統合するアプローチ
12
13. Proposed Methods > Encoder-Decoder Model with Aligned
Inputs ①
? Spot filling: input words x=(x1,…,xT) → label y=(y1, …, yT)
? Encoderにはbidirectional RNNを?いた.
– Forward, Backwardの両?の向きで??sequenceを読む.
– Forward: hidden state fhi を各タイムステップで?成.
– Backward: 後ろから読み, hidden states (bhT,…,bh1) を?成.
– 各セルの最終的なhidden stateの値 hiは, fhiとbhiをconcatし得る. (i.e. hi=[fhi, bhi])
? RNNのユニットにはLSTMを?いた.
? Backward encoder RNN の最後のstateを, decoderの最初のhidden state
とする[12]
– Forward, backward encoder RNNの最後のstateが?全体の情報を持つ.
13
14. Proposed Methods > Encoder-Decoder Model with Aligned
Inputs ①
? Decoder はunidirectional RNN.
– 各タイムステップで, decoder state siは, 前のsi-1, label yi-1, aligned encoder hidden
state hi, context vector ciから計算される. (hiは, 各decoding stepで明?的なaligned
inputに.)
– Context vector ciは, encoder states h=(h1, …, hT)の重み付けされた和で計算される.
? ???章の中でdecoderが注意(attention)すべき箇所を?唆してる
? αは, 以下で計算される. gは, feed-forward neural network.
14