本スライドは、弊社の梅本により弊社内の技術勉強会で使用されたものです。
近年注目を集めるアーキテクチャーである「Transformer」の解説スライドとなっております。
"Arithmer Seminar" is weekly held, where professionals from within and outside our company give lectures on their respective expertise.
The slides are made by the lecturer from outside our company, and shared here with his/her permission.
Arithmer株式会社は東京大学大学院数理科学研究科発の数学の会社です。私達は現代数学を応用して、様々な分野のソリューションに、新しい高度AIシステムを導入しています。AIをいかに上手に使って仕事を効率化するか、そして人々の役に立つ結果を生み出すのか、それを考えるのが私たちの仕事です。
Arithmer began at the University of Tokyo Graduate School of Mathematical Sciences. Today, our research of modern mathematics and AI systems has the capability of providing solutions when dealing with tough complex issues. At Arithmer we believe it is our job to realize the functions of AI through improving work efficiency and producing more useful results for society.
This document summarizes recent research on applying self-attention mechanisms from Transformers to domains other than language, such as computer vision. It discusses models that use self-attention for images, including ViT, DeiT, and T2T, which apply Transformers to divided image patches. It also covers more general attention modules like the Perceiver that aims to be domain-agnostic. Finally, it discusses work on transferring pretrained language Transformers to other modalities through frozen weights, showing they can function as universal computation engines.
This document summarizes recent research on applying self-attention mechanisms from Transformers to domains other than language, such as computer vision. It discusses models that use self-attention for images, including ViT, DeiT, and T2T, which apply Transformers to divided image patches. It also covers more general attention modules like the Perceiver that aims to be domain-agnostic. Finally, it discusses work on transferring pretrained language Transformers to other modalities through frozen weights, showing they can function as universal computation engines.
画像認識モデルを自動的に作る。1日以内に。~Simple And Efficient Architecture Search for Convolutio...Takahiro Kubo
?
感情の出どころを探る、一歩进んだ感情解析
1. Copyright ? 2017 TIS Inc. All rights reserved.
感情の出どころを探る、一歩进んだ感情解析
戦略技術センター
久保隆宏
Introduction for Aspect Based Sentiment Analysis
2. Copyright ? 2017 TIS Inc. All rights reserved. 2
? 観点感情解析(Aspect Based Sentiment 础苍补濒测蝉颈蝉)とは
? 既存の感情解析の問題点
? 観点感情解析のはじまり
? 観点感情解析のタスク
? タスクの定義
? 現在行われているアプローチ
? 今後のアプローチ
? 基本方針
? 観点表現の認識を起点にした手法
? 1-shot文分類を利用する手法
? 観点表現の特定と分類を併用するパターン
? Try Aspect Based Sentiment Analysis!
目次
3. Copyright ? 2017 TIS Inc. All rights reserved. 3
久保隆宏
TIS株式会社 戦略技術センター
? 化学系メーカーの業務コンサルタント出身
? 既存の技術では業務改善を行える範囲に限界があるとの実感から、戦
略技術センターへと異動
? 現在は機械学習や自然言語処理の研究?それらを用いたシステムのプ
ロトタイピングを行う
自己紹介
kintoneアプリ内にたまった
データを簡単に学習?活用
(@Cybozu Days 2016)
チュートリアル講演:深層学習
の判断根拠を理解するための研
究とその意義(@PRMU 2017)
機械学習をシステムに組み込む
際の依存性管理について
(@MANABIYA 2018)
4. Copyright ? 2017 TIS Inc. All rights reserved. 4
chakkiのミッション
Summarize data for human
あらゆるデータを、人間にとってわかりやすく要約
することを目指します。
chakkiが目指す機能:
? 要約の観点を、なるべく少ないデータで学習する
? 自然言語以外の、画像や数値データの要約も扱う
? 図や表といった表現形態にも挑戦する
この機能の実現を通じ、最終的にはいつでもティー
タイム(15:00)に帰れる(=茶帰)社会を目指します。
2018年度より具体化
20. Copyright ? 2017 TIS Inc. All rights reserved. 20
タスクで提出された研究のアプローチは以下(スコアが良かったもの)。
NLANGP at SemEval-2016 Task 5: Improving Aspect Based
Sentiment Analysis using Neural Network Features
? Slot1
? n-gram、学習データ中のエンティティ表現、係り受け関係にある
単語(HEAD)、単語分散表現、K-meansクラスタなどを特徴使用。
? これらの特徴+これらの特徴の一部使ってCNNで畳み込んで予測し
た結果を一層のニューラルネットに入れて学習
? CNNだけでも精度は高いが、併用するとさらに上がるらしい。
? Slot2
? CRFにRNNの出力を加えて予測。表現だけ予測すればいいので、ど
のAspectのTargetかを区別せず学習。
現在行われているアプローチ(4/6)
21. Copyright ? 2017 TIS Inc. All rights reserved. 21
NileTMRG at SemEval-2016 Task 5: Deep Convolutional Neural
Networks for Aspect Category and Sentiment Extraction
? Slot1
? 単語の分散表現(YelpやAmazonレビューなどのセンチメント系の
データセットでも学習したもの)を、CNNで畳み込む。
? Slot3
? 同じくCNNをベースにした3つのモデルのアンサンブルで予測する。
AUEB-ABSA at SemEval-2016 Task 5: Ensembles of Classifiers and
Embeddings for Aspect Based Sentiment Analysis
? Slot1/2/3すべてを扱っている。Slot1はSVM、Slot2はCRF、Slot3は
特徴量/単語分散表現をベースにした線形回帰。いずれもアンサンブル
を行うことで精度を上げている。
? 実装が公開されている
現在行われているアプローチ(5/6)
22. Copyright ? 2017 TIS Inc. All rights reserved. 22
ECNU: Extracting Effective Features from Multiple Sequential
Sentences for Target-dependent Sentiment Analysis in
Reviews
? Aspectの推定(Slot1)に効く特徴を調べた研究。ドメイン固有の単語
(パソコンなら便利、速い、など)がやはり一番効いている。また、係り
受け関係などの文法的特徴が効いている。
Deep Learning for Aspect-Based Sentiment Analysis
? Slot1
? 文中単語の単語分散表現を、2層のニューラルネット(Deepと
は???)で予測(深すぎると過学習するためあえて)。なお、予測ラ
ベルで頻度が低いものはOTHERとしてまとめてしまっている。
? Slot3
? CNNを使用。Aspectの分類確率(Slot1の出力)でもって単語ベクト
ルを重みづけしたうえで入力している(これにより、Aspectに関連
する語が重要視されてSentimentが判定される)
現在行われているアプローチ(6/6)
27. Copyright ? 2017 TIS Inc. All rights reserved. 27
観点表現の特定と分類を併用するパターン
Pre-trained
Aspect term
Detector
Aspect Category
Classifier
Polality
Classifier
ピザは美味しかった。
ピザは美味しかった。
FOOD#QUALITY
POSITIVE
1shot/Pretrainedモ
デルを使うことで
ブースト
Merge
観点表現の特定と分
類は、シリアルに行
う必要は別段ない。
28. Copyright ? 2017 TIS Inc. All rights reserved. 28
観点別の感情解析か???面白そうだけど、
どうせ日本語のデータセットはないんだろうな
Try Aspect Based Sentiment Analysis!(1/2)
29. Copyright ? 2017 TIS Inc. All rights reserved. 29
Try Aspect Based Sentiment Analysis!(2/2)
有価証券報告書(2016年度)をベースにアノテーションした
データを無償で公開しています(GitHub/Kaggleで公開)。
今すぐアクセス!