狠狠撸

狠狠撸Share a Scribd company logo
Retrofitting Word Vectors to
Semantic Lexicons
Manaal Faruqui, Jese Dodge, Sujay K. Jauhar,
Chris Dyer, Eduard Hovy, Noah A. Smith
NACL 2015
読む人:高瀬翔
知識獲得研究会2015/4/21
1
単語のベクトル表現について
? コーパスからの単語の意味(ベクトル表現)獲得
はNLPで重要な技術
– 手法:単語-文脈の共起行列,共起行列の次元圧縮,
ニューラル言語モデルなど
– 似た性質の単語=似たベクトル
? 応用タスクの素性としても有用
2
代表作 作家 陸上競技 文学賞 時速 筋肉 順位 書く
フランツ?カフカ 80 60 0 30 0 0 0 40
大江健三郎 70 60 0 50 0 0 0 60
ウサイン?ボルト 0 0 100 0 30 40 80 0
カール?ルイス 0 0 90 0 40 50 70 0
単語の文脈ベクトル
ベクトル表現への外部知識導入
と先行研究の問題点
? 外部知識利用でベクトル表現の質が向上[Yu+ 14,
Chang+ 13]
– 外部知識:WordNet,FrameNetなど
? 問題点:ベクトルの構成手法が限定的
– コーパスと外部知識の利用を統合してしまっている
– 与えられたベクトルに外部知識を組み込む改良が
できない(新たな学習手法などに対応できない)
? 例[Yu+ 14]:目的関数に外部知識の項がある
3
文脈 外部知識
本研究の貢献
? 外部知識を後処理としてベクトル表現に
導入する手法を提案
– 任意のベクトルの構築手法と組み合わせ可能
– 提案手法は高速
? 10万単語,300次元のベクトルに対し約5秒で動作
? 様々な実験を通して有用性を示す
– 学習手法,外部知識,ベクトルの次元,言語
など様々な比較
4
提案手法
? やりたいことは2つ
– コーパスから得たベクトル(入力)と似たベクトルとする
– 外部知識上で関連する単語は似たベクトルとする
? 関連:同義語,上位下位語,言い換え
? 目的関数
– 似せたいベクトル間のユークリッド距離を最小化
? 一項目:コーパスの情報(入力ベクトルに近づける)
? 二項目:外部知識(外部知識上での関連語に近づける)
– E:外部知識上で関連している単語間に張ったエッジの集合
– α,β:ハイパーパラメータ(α=1,β=1 / エッジの次数)
5
en related words
inferred (white)
method works
ord vector mod-
tors to beretro?tted (and correspond to V?); shaded
nodes are labeled with the corresponding vectors in
?Q, which areobserved. Thegraph can beinterpreted
as a Markov random ?eld (Kindermann and Snell,
1980).
The distance between a pair of vectors is de?ned
to be the Euclidean distance. Since we want the
inferred word vector to be close to the observed
value ?qi and close to its neighbors qj , 8j such that
(i, j ) 2 E, theobjectiveto beminimized becomes:
(Q) =
nX
i= 1
2
4?i kqi ? ?qi k2
+
X
(i,j )2E
βij kqi ? qj k2
3
5
where ? and β values control the relative strengths
of associations (moredetails in §6.1).
コーパスから得たベクトル(入力)
改良後のベクトル
解き方
? 反復更新で解を求める
– 各 qi について,目的関数を最小化する値への更
新を繰り返す
– qi は入力ベクトルで初期化
? 経験的には10回の反復で近づけたいベクトル
間のユークリッド距離は0.01未満になる
6
orma-
o mul-
gives
valua-
engths
ect of
?tting
com/
s
heset
desse-
resent
ex for
V ? V
lution can be found by solving a system of linear
equations. To do so, we use an ef?cient iterative
updating method (Bengio et al., 2006; Subramanya
et al., 2010; Das and Petrov, 2011; Das and Smith,
2011). The vectors in Q are initialized to be equal
to thevectorsin ?Q. Wetakethe?rst derivativeof
with respect to one qi vector, and by equating it to
zero arriveat thefollowing onlineupdate:
qi =
P
j :(i,j )2E βij qj + ?i ?qi
P
j :(i,j )2E βij + ?i
(1)
In practice, running this procedure for 10 iterations
converges to changes in Euclidean distance of ad-
jacent vertices of less than 10? 2. The retro?tting
approach described above is modular; it can be ap-
plied to word vector representations obtained from
更新式:
実験
? 様々な公開されているベクトルを入力とし
– Glove[Pennington+ 14]:共起情報をベクトルでモデル化
– SG[Mikolov+ 13]:周囲の単語を予測できるよう学習
– GC[Huang+ 12]:ローカルと文書レベルの文脈を組み合わせて学習
– Multi[Faruqui+ 14]:異なる言語間で単語ベクトルにCCA
? 様々な外部知識を利用して
– PPDB:翻訳すると同じ語になる単語を言い換えとして収集したDB
– WordNet:人手の辞書(同義語のみ(syn) or 同義+上位下位(all))
– FrameNet:フレーム辞書,同一のフレームを持つ単語にエッジを張る
? 様々なタスクでの性能向上を検証
– 単語の類似度タスク
– TOFEL:与えられた単語と同じ意味の単語を選択肢から選ぶ
– 単語の統語的アナロジータスク
– Sentiment analysis:文内の単語のベクトルの平均を素性に分類器構築
7
結果(各タスクで向上した値)
8
SYN-REL(単語の統語的アナロジー)以外で向上が見られる
→単語ベクトルに意味的な情報を付与し,質が向上
後処理の効果を測る
? 外部知識の情報は学習時に組み込む事も
可能
– 2種類の組み込み方を試す
? log-bilinearのモデルを考え
– 学習時に正則化項で導入
? 10万単語毎の遅延更新(lazy)
– 確率的勾配降下法で k 個の事例を見る毎に
本研究の提案手法でベクトル更新(periodic)
9
結果
? lazyでも上昇有り
? periodicはlazyよりも大幅に性能向上
? retrofitting(提案手法)はperiodicと
competitive,性能が上回ることもある
10
先行研究との比較
? [Yu+ 14]との比較では全てのタスクで性能
向上
? [Xu+ 14]との比較でもほぼ全てのタスクで
性能向上
11
まとめ
? 単語ベクトル表現に外部知識を組み込む
手法を提案
– 後処理として組み込むので任意のベクトルに
適用可能
? 提案手法による性能向上を実験で検証
– 外部知識を利用する既存手法より性能向上
12

More Related Content

What's hot (20)

Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展
Yuichi Yoshida
?
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
?
负の二项分布について
负の二项分布について负の二项分布について
负の二项分布について
Hiroshi Shimizu
?
贬辞尘辞迟辞辫测法による非线形方程式の解法
贬辞尘辞迟辞辫测法による非线形方程式の解法贬辞尘辞迟辞辫测法による非线形方程式の解法
贬辞尘辞迟辞辫测法による非线形方程式の解法
Hideo Hirose
?
摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习
Deep Learning JP
?
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
MLSE
?
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
sleepy_yoshi
?
Probabilistic fasttext for multi sense word embeddings
 Probabilistic fasttext for multi sense word embeddings Probabilistic fasttext for multi sense word embeddings
Probabilistic fasttext for multi sense word embeddings
Makoto Takenaka
?
大规模な组合せ最适化问题に対する発见的解法
大规模な组合せ最适化问题に対する発见的解法大规模な组合せ最适化问题に対する発见的解法
大规模な组合せ最适化问题に対する発见的解法
Shunji Umetani
?
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
?
自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ
Masatoshi Yoshida
?
奥础滨颁と奥叠滨颁のご绍介
奥础滨颁と奥叠滨颁のご绍介奥础滨颁と奥叠滨颁のご绍介
奥础滨颁と奥叠滨颁のご绍介
Tomoki Matsumoto
?
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
Deep Learning JP
?
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling
Deep Learning JP
?
贬颈笔笔翱/厂4解説
贬颈笔笔翱/厂4解説贬颈笔笔翱/厂4解説
贬颈笔笔翱/厂4解説
Morpho, Inc.
?
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
?
Wolf et al. "Graph abstraction reconciles clustering with trajectory inferen...
Wolf et al. "Graph abstraction reconciles clustering with trajectory inferen...Wolf et al. "Graph abstraction reconciles clustering with trajectory inferen...
Wolf et al. "Graph abstraction reconciles clustering with trajectory inferen...
Ryohei Suzuki
?
Active Learning と Bayesian Neural Network
Active Learning と Bayesian Neural NetworkActive Learning と Bayesian Neural Network
Active Learning と Bayesian Neural Network
Naoki Matsunaga
?
数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理
Taiji Suzuki
?
Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展Greed is Good: 劣モジュラ関数最大化とその発展
Greed is Good: 劣モジュラ関数最大化とその発展
Yuichi Yoshida
?
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
?
负の二项分布について
负の二项分布について负の二项分布について
负の二项分布について
Hiroshi Shimizu
?
贬辞尘辞迟辞辫测法による非线形方程式の解法
贬辞尘辞迟辞辫测法による非线形方程式の解法贬辞尘辞迟辞辫测法による非线形方程式の解法
贬辞尘辞迟辞辫测法による非线形方程式の解法
Hideo Hirose
?
摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习
Deep Learning JP
?
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
MLSE
?
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
TokyoNLP#7 きれいなジャイアンのカカカカ☆カーネル法入門-C++
sleepy_yoshi
?
Probabilistic fasttext for multi sense word embeddings
 Probabilistic fasttext for multi sense word embeddings Probabilistic fasttext for multi sense word embeddings
Probabilistic fasttext for multi sense word embeddings
Makoto Takenaka
?
大规模な组合せ最适化问题に対する発见的解法
大规模な组合せ最适化问题に対する発见的解法大规模な组合せ最适化问题に対する発见的解法
大规模な组合せ最适化问题に対する発见的解法
Shunji Umetani
?
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
?
自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ自由エネルギー原理から エナクティヴィズムへ
自由エネルギー原理から エナクティヴィズムへ
Masatoshi Yoshida
?
奥础滨颁と奥叠滨颁のご绍介
奥础滨颁と奥叠滨颁のご绍介奥础滨颁と奥叠滨颁のご绍介
奥础滨颁と奥叠滨颁のご绍介
Tomoki Matsumoto
?
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
[DL輪読会] Spectral Norm Regularization for Improving the Generalizability of De...
Deep Learning JP
?
【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling【DL輪読会】Flow Matching for Generative Modeling
【DL輪読会】Flow Matching for Generative Modeling
Deep Learning JP
?
贬颈笔笔翱/厂4解説
贬颈笔笔翱/厂4解説贬颈笔笔翱/厂4解説
贬颈笔笔翱/厂4解説
Morpho, Inc.
?
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learningベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ベイズ深層学習5章 ニューラルネットワークのベイズ推論 Bayesian deep learning
ssuserca2822
?
Wolf et al. "Graph abstraction reconciles clustering with trajectory inferen...
Wolf et al. "Graph abstraction reconciles clustering with trajectory inferen...Wolf et al. "Graph abstraction reconciles clustering with trajectory inferen...
Wolf et al. "Graph abstraction reconciles clustering with trajectory inferen...
Ryohei Suzuki
?
Active Learning と Bayesian Neural Network
Active Learning と Bayesian Neural NetworkActive Learning と Bayesian Neural Network
Active Learning と Bayesian Neural Network
Naoki Matsunaga
?
数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理数学で解き明かす深层学习の原理
数学で解き明かす深层学习の原理
Taiji Suzuki
?

Similar to Retrofitting Word Vectors to Semantic Lexicons (10)

dont_count_predict_in_acl2014
dont_count_predict_in_acl2014dont_count_predict_in_acl2014
dont_count_predict_in_acl2014
Sho Takase
?
読解支援@2015 07-13
読解支援@2015 07-13読解支援@2015 07-13
読解支援@2015 07-13
sekizawayuuki
?
論文紹介: Sequence to Better Sequence: Continuous Revision of Combinatorial Struc...
論文紹介: Sequence to Better Sequence: Continuous Revision of Combinatorial Struc...論文紹介: Sequence to Better Sequence: Continuous Revision of Combinatorial Struc...
論文紹介: Sequence to Better Sequence: Continuous Revision of Combinatorial Struc...
Kazuki Inamura
?
Nl237 presentation
Nl237 presentationNl237 presentation
Nl237 presentation
Roy Ray
?
Minimally Supervised Classification to Semantic Categories using Automaticall...
Minimally Supervised Classification to Semantic Categories using Automaticall...Minimally Supervised Classification to Semantic Categories using Automaticall...
Minimally Supervised Classification to Semantic Categories using Automaticall...
sakaizawa
?
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
禎晃 山崎
?
STAIR Lab Seminar 202105
STAIR Lab Seminar 202105STAIR Lab Seminar 202105
STAIR Lab Seminar 202105
Sho Takase
?
文献紹介:Extracting Opinion Expression with semi-Markov Conditional Random Fields
文献紹介:Extracting Opinion Expression with semi-Markov Conditional Random Fields文献紹介:Extracting Opinion Expression with semi-Markov Conditional Random Fields
文献紹介:Extracting Opinion Expression with semi-Markov Conditional Random Fields
Shohei Okada
?
Word2vec alpha
Word2vec alphaWord2vec alpha
Word2vec alpha
KCS Keio Computer Society
?
A Unified Model for Word Sense Representation and Disambiguation
A Unified Model for Word Sense Representation and DisambiguationA Unified Model for Word Sense Representation and Disambiguation
A Unified Model for Word Sense Representation and Disambiguation
sakaizawa
?
dont_count_predict_in_acl2014
dont_count_predict_in_acl2014dont_count_predict_in_acl2014
dont_count_predict_in_acl2014
Sho Takase
?
読解支援@2015 07-13
読解支援@2015 07-13読解支援@2015 07-13
読解支援@2015 07-13
sekizawayuuki
?
論文紹介: Sequence to Better Sequence: Continuous Revision of Combinatorial Struc...
論文紹介: Sequence to Better Sequence: Continuous Revision of Combinatorial Struc...論文紹介: Sequence to Better Sequence: Continuous Revision of Combinatorial Struc...
論文紹介: Sequence to Better Sequence: Continuous Revision of Combinatorial Struc...
Kazuki Inamura
?
Nl237 presentation
Nl237 presentationNl237 presentation
Nl237 presentation
Roy Ray
?
Minimally Supervised Classification to Semantic Categories using Automaticall...
Minimally Supervised Classification to Semantic Categories using Automaticall...Minimally Supervised Classification to Semantic Categories using Automaticall...
Minimally Supervised Classification to Semantic Categories using Automaticall...
sakaizawa
?
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
CluBERT: A Cluster-Based Approach for Learning Sense Distributions in Multipl...
禎晃 山崎
?
STAIR Lab Seminar 202105
STAIR Lab Seminar 202105STAIR Lab Seminar 202105
STAIR Lab Seminar 202105
Sho Takase
?
文献紹介:Extracting Opinion Expression with semi-Markov Conditional Random Fields
文献紹介:Extracting Opinion Expression with semi-Markov Conditional Random Fields文献紹介:Extracting Opinion Expression with semi-Markov Conditional Random Fields
文献紹介:Extracting Opinion Expression with semi-Markov Conditional Random Fields
Shohei Okada
?
A Unified Model for Word Sense Representation and Disambiguation
A Unified Model for Word Sense Representation and DisambiguationA Unified Model for Word Sense Representation and Disambiguation
A Unified Model for Word Sense Representation and Disambiguation
sakaizawa
?

More from Sho Takase (12)

罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について
罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について
罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について
Sho Takase
?
ニューラルネットワークを用いた自然言语処理
ニューラルネットワークを用いた自然言语処理ニューラルネットワークを用いた自然言语処理
ニューラルネットワークを用いた自然言语処理
Sho Takase
?
狈别耻谤滨笔厂2020参加报告
狈别耻谤滨笔厂2020参加报告狈别耻谤滨笔厂2020参加报告
狈别耻谤滨笔厂2020参加报告
Sho Takase
?
Rethinking Perturbations in Encoder-Decoders for Fast Training
Rethinking Perturbations in Encoder-Decoders for Fast TrainingRethinking Perturbations in Encoder-Decoders for Fast Training
Rethinking Perturbations in Encoder-Decoders for Fast Training
Sho Takase
?
Robust Neural Machine Translation with Doubly Adversarial Inputs
Robust Neural Machine Translation with Doubly Adversarial InputsRobust Neural Machine Translation with Doubly Adversarial Inputs
Robust Neural Machine Translation with Doubly Adversarial Inputs
Sho Takase
?
Breaking the Softmax Bottleneck via Learnable Monotonic Pointwise Non-lineari...
Breaking the Softmax Bottleneck via Learnable Monotonic Pointwise Non-lineari...Breaking the Softmax Bottleneck via Learnable Monotonic Pointwise Non-lineari...
Breaking the Softmax Bottleneck via Learnable Monotonic Pointwise Non-lineari...
Sho Takase
?
Enriching Word Vectors with Subword Information
Enriching Word Vectors with Subword InformationEnriching Word Vectors with Subword Information
Enriching Word Vectors with Subword Information
Sho Takase
?
Harnessing Deep Neural Networks with Logic Rules
Harnessing Deep Neural Networks with Logic RulesHarnessing Deep Neural Networks with Logic Rules
Harnessing Deep Neural Networks with Logic Rules
Sho Takase
?
4thNLPDL
4thNLPDL4thNLPDL
4thNLPDL
Sho Takase
?
Learning Composition Models for Phrase Embeddings
Learning Composition Models for Phrase EmbeddingsLearning Composition Models for Phrase Embeddings
Learning Composition Models for Phrase Embeddings
Sho Takase
?
NLP2015 構成性に基づく関係パタンの意味計算
NLP2015 構成性に基づく関係パタンの意味計算NLP2015 構成性に基づく関係パタンの意味計算
NLP2015 構成性に基づく関係パタンの意味計算
Sho Takase
?
Lexical Inference over Multi-Word Predicates
Lexical Inference over Multi-Word PredicatesLexical Inference over Multi-Word Predicates
Lexical Inference over Multi-Word Predicates
Sho Takase
?
罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について
罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について
罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について
Sho Takase
?
ニューラルネットワークを用いた自然言语処理
ニューラルネットワークを用いた自然言语処理ニューラルネットワークを用いた自然言语処理
ニューラルネットワークを用いた自然言语処理
Sho Takase
?
狈别耻谤滨笔厂2020参加报告
狈别耻谤滨笔厂2020参加报告狈别耻谤滨笔厂2020参加报告
狈别耻谤滨笔厂2020参加报告
Sho Takase
?
Rethinking Perturbations in Encoder-Decoders for Fast Training
Rethinking Perturbations in Encoder-Decoders for Fast TrainingRethinking Perturbations in Encoder-Decoders for Fast Training
Rethinking Perturbations in Encoder-Decoders for Fast Training
Sho Takase
?
Robust Neural Machine Translation with Doubly Adversarial Inputs
Robust Neural Machine Translation with Doubly Adversarial InputsRobust Neural Machine Translation with Doubly Adversarial Inputs
Robust Neural Machine Translation with Doubly Adversarial Inputs
Sho Takase
?
Breaking the Softmax Bottleneck via Learnable Monotonic Pointwise Non-lineari...
Breaking the Softmax Bottleneck via Learnable Monotonic Pointwise Non-lineari...Breaking the Softmax Bottleneck via Learnable Monotonic Pointwise Non-lineari...
Breaking the Softmax Bottleneck via Learnable Monotonic Pointwise Non-lineari...
Sho Takase
?
Enriching Word Vectors with Subword Information
Enriching Word Vectors with Subword InformationEnriching Word Vectors with Subword Information
Enriching Word Vectors with Subword Information
Sho Takase
?
Harnessing Deep Neural Networks with Logic Rules
Harnessing Deep Neural Networks with Logic RulesHarnessing Deep Neural Networks with Logic Rules
Harnessing Deep Neural Networks with Logic Rules
Sho Takase
?
Learning Composition Models for Phrase Embeddings
Learning Composition Models for Phrase EmbeddingsLearning Composition Models for Phrase Embeddings
Learning Composition Models for Phrase Embeddings
Sho Takase
?
NLP2015 構成性に基づく関係パタンの意味計算
NLP2015 構成性に基づく関係パタンの意味計算NLP2015 構成性に基づく関係パタンの意味計算
NLP2015 構成性に基づく関係パタンの意味計算
Sho Takase
?
Lexical Inference over Multi-Word Predicates
Lexical Inference over Multi-Word PredicatesLexical Inference over Multi-Word Predicates
Lexical Inference over Multi-Word Predicates
Sho Takase
?

Recently uploaded (8)

ElasticsearchでSPLADEする [Search Engineering Tech Talk 2025 Winter]
ElasticsearchでSPLADEする [Search Engineering Tech Talk 2025 Winter]ElasticsearchでSPLADEする [Search Engineering Tech Talk 2025 Winter]
ElasticsearchでSPLADEする [Search Engineering Tech Talk 2025 Winter]
kota usuha
?
ドメインモデリング基本编①词全体の流れ2025冲02冲27社内向け开催.辫辫迟虫
ドメインモデリング基本编①词全体の流れ2025冲02冲27社内向け开催.辫辫迟虫ドメインモデリング基本编①词全体の流れ2025冲02冲27社内向け开催.辫辫迟虫
ドメインモデリング基本编①词全体の流れ2025冲02冲27社内向け开催.辫辫迟虫
ssuserfcafd1
?
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
CRI Japan, Inc.
?
Apache Sparkに対するKubernetesのNUMAノードを意識したリソース割り当ての性能効果 (Open Source Conference ...
Apache Sparkに対するKubernetesのNUMAノードを意識したリソース割り当ての性能効果 (Open Source Conference ...Apache Sparkに対するKubernetesのNUMAノードを意識したリソース割り当ての性能効果 (Open Source Conference ...
Apache Sparkに対するKubernetesのNUMAノードを意識したリソース割り当ての性能効果 (Open Source Conference ...
NTT DATA Technology & Innovation
?
IoT Devices Compliant with JC-STAR Using Linux as a Container OS
IoT Devices Compliant with JC-STAR Using Linux as a Container OSIoT Devices Compliant with JC-STAR Using Linux as a Container OS
IoT Devices Compliant with JC-STAR Using Linux as a Container OS
Tomohiro Saneyoshi
?
滨肠丑颈颈搁颈办颈蝉耻办别冲理学疗法士间の知识共有に向けた临床推论テキストの构造化に関する研究.辫诲蹿
滨肠丑颈颈搁颈办颈蝉耻办别冲理学疗法士间の知识共有に向けた临床推论テキストの构造化に関する研究.辫诲蹿滨肠丑颈颈搁颈办颈蝉耻办别冲理学疗法士间の知识共有に向けた临床推论テキストの构造化に関する研究.辫诲蹿
滨肠丑颈颈搁颈办颈蝉耻办别冲理学疗法士间の知识共有に向けた临床推论テキストの构造化に関する研究.辫诲蹿
Matsushita Laboratory
?
PostgreSQL最新動向 ~カラムナストアから生成AI連携まで~ (Open Source Conference 2025 Tokyo/Spring ...
PostgreSQL最新動向 ~カラムナストアから生成AI連携まで~ (Open Source Conference 2025 Tokyo/Spring ...PostgreSQL最新動向 ~カラムナストアから生成AI連携まで~ (Open Source Conference 2025 Tokyo/Spring ...
PostgreSQL最新動向 ~カラムナストアから生成AI連携まで~ (Open Source Conference 2025 Tokyo/Spring ...
NTT DATA Technology & Innovation
?
Matching_Program_for_Quantum_Challenge_Overview.pdf
Matching_Program_for_Quantum_Challenge_Overview.pdfMatching_Program_for_Quantum_Challenge_Overview.pdf
Matching_Program_for_Quantum_Challenge_Overview.pdf
hirokiokuda2
?
ElasticsearchでSPLADEする [Search Engineering Tech Talk 2025 Winter]
ElasticsearchでSPLADEする [Search Engineering Tech Talk 2025 Winter]ElasticsearchでSPLADEする [Search Engineering Tech Talk 2025 Winter]
ElasticsearchでSPLADEする [Search Engineering Tech Talk 2025 Winter]
kota usuha
?
ドメインモデリング基本编①词全体の流れ2025冲02冲27社内向け开催.辫辫迟虫
ドメインモデリング基本编①词全体の流れ2025冲02冲27社内向け开催.辫辫迟虫ドメインモデリング基本编①词全体の流れ2025冲02冲27社内向け开催.辫辫迟虫
ドメインモデリング基本编①词全体の流れ2025冲02冲27社内向け开催.辫辫迟虫
ssuserfcafd1
?
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
CRI Japan, Inc.
?
Apache Sparkに対するKubernetesのNUMAノードを意識したリソース割り当ての性能効果 (Open Source Conference ...
Apache Sparkに対するKubernetesのNUMAノードを意識したリソース割り当ての性能効果 (Open Source Conference ...Apache Sparkに対するKubernetesのNUMAノードを意識したリソース割り当ての性能効果 (Open Source Conference ...
Apache Sparkに対するKubernetesのNUMAノードを意識したリソース割り当ての性能効果 (Open Source Conference ...
NTT DATA Technology & Innovation
?
IoT Devices Compliant with JC-STAR Using Linux as a Container OS
IoT Devices Compliant with JC-STAR Using Linux as a Container OSIoT Devices Compliant with JC-STAR Using Linux as a Container OS
IoT Devices Compliant with JC-STAR Using Linux as a Container OS
Tomohiro Saneyoshi
?
滨肠丑颈颈搁颈办颈蝉耻办别冲理学疗法士间の知识共有に向けた临床推论テキストの构造化に関する研究.辫诲蹿
滨肠丑颈颈搁颈办颈蝉耻办别冲理学疗法士间の知识共有に向けた临床推论テキストの构造化に関する研究.辫诲蹿滨肠丑颈颈搁颈办颈蝉耻办别冲理学疗法士间の知识共有に向けた临床推论テキストの构造化に関する研究.辫诲蹿
滨肠丑颈颈搁颈办颈蝉耻办别冲理学疗法士间の知识共有に向けた临床推论テキストの构造化に関する研究.辫诲蹿
Matsushita Laboratory
?
PostgreSQL最新動向 ~カラムナストアから生成AI連携まで~ (Open Source Conference 2025 Tokyo/Spring ...
PostgreSQL最新動向 ~カラムナストアから生成AI連携まで~ (Open Source Conference 2025 Tokyo/Spring ...PostgreSQL最新動向 ~カラムナストアから生成AI連携まで~ (Open Source Conference 2025 Tokyo/Spring ...
PostgreSQL最新動向 ~カラムナストアから生成AI連携まで~ (Open Source Conference 2025 Tokyo/Spring ...
NTT DATA Technology & Innovation
?
Matching_Program_for_Quantum_Challenge_Overview.pdf
Matching_Program_for_Quantum_Challenge_Overview.pdfMatching_Program_for_Quantum_Challenge_Overview.pdf
Matching_Program_for_Quantum_Challenge_Overview.pdf
hirokiokuda2
?

Retrofitting Word Vectors to Semantic Lexicons

Editor's Notes

  • #13: #実験の量は多く,确かに数値も出ているのだけど,性能が悪い时とか大幅に性能向上していない时(有意差なさそうな时)の考察がないのが不満要素ではある