文献紹介:SemEval-2012 Task 1: English Lexical SimplificationTomoyuki Kajiwara
?
Lucia Specia, Sujay Kumar Jauhar, Rada Mihalcea. SemEval-2012 Task 1: English Lexical Simplification. In Proceedings of the 6th International Workshop on Semantic Evaluation (SemEval-2012), pp.347-355, 2012.
文献紹介:SemEval-2012 Task 1: English Lexical SimplificationTomoyuki Kajiwara
?
Lucia Specia, Sujay Kumar Jauhar, Rada Mihalcea. SemEval-2012 Task 1: English Lexical Simplification. In Proceedings of the 6th International Workshop on Semantic Evaluation (SemEval-2012), pp.347-355, 2012.
本スライドは、弊社の梅本により弊社内の技術勉強会で使用されたものです。
近年注目を集めるアーキテクチャーである「Transformer」の解説スライドとなっております。
"Arithmer Seminar" is weekly held, where professionals from within and outside our company give lectures on their respective expertise.
The slides are made by the lecturer from outside our company, and shared here with his/her permission.
Arithmer株式会社は東京大学大学院数理科学研究科発の数学の会社です。私達は現代数学を応用して、様々な分野のソリューションに、新しい高度AIシステムを導入しています。AIをいかに上手に使って仕事を効率化するか、そして人々の役に立つ結果を生み出すのか、それを考えるのが私たちの仕事です。
Arithmer began at the University of Tokyo Graduate School of Mathematical Sciences. Today, our research of modern mathematics and AI systems has the capability of providing solutions when dealing with tough complex issues. At Arithmer we believe it is our job to realize the functions of AI through improving work efficiency and producing more useful results for society.
This document provides an introduction to fixed income term structures and financial instruments. It begins with a quick mathematical introduction that covers risk neutral measures, Girsanov's theorem, and pricing formulas. The main body of the document then focuses on the stochastic approach to modeling term structures. It discusses various interest rates, stochastic discount factors, and financial instruments like FRAs, interest rate swaps, caps and floors. It also covers the expectation hypothesis and Heath-Jarrow-Morton framework for modeling term structures.
3. 概要
- パラグラフ方向にLSTMを適用 -
? パラグラフをセンテンス系列?センテンスを単語系列と考えて
センテンスをグローバル特徴量?単語をローカル特徴量と考え
パラグラフ方向にLSTMを適用した
? h(t,i) : i-thの単語の隠れベクトル表現 at t-th センテンス
? i = 1,…,n t = 1,…,T
? n : t-thのセンテンスに含まれる単語数
? T : パラグラフがT個のセンテンスを持つ
? g(t) : ベクトル表現 at t-th センテンス
? t番目とt+1番目のセンテンスのアライメントは考慮しない
? 学習時には、センテンスのidリストを一様乱数からサンプリング
ACL2018読み会3
4. アイディア①
- 単語(ローカル特徴量)の更新方法 -
ACL2018読み会4
wi-1, t wi , t wi+1 , t
wi-1,t-1 wi ,t-1 wi+1,t-1
Word
Embedding(t-1)
Hidden
Embedding(t-1)
Sentence
Embedding(t-1)
Word
Embedding(t)
Hidden
Embedding(t)
h(t,i)
g(t-1,i)
h(t-1,i-1) h(t-1,i) h(t-1,i+1)