狠狠撸

狠狠撸Share a Scribd company logo
予測の反実仮想説明の調査報告
2022年10?21?
株式会社 電通国際情報サービス
X(クロス)イノベーション本部 AIトランスフォーメーションセンター
太? 真?
??紹介
n 太? 真?
n ISIDでデータサイエンティストをしています。
n お仕事は、AI製品開発、データ分析案件、研究など
n 最近は、?とAIの協調など、HCIに興味があります。
n この資料は、予測の反実仮想説明のサーベイです。
n 基礎的な内容とテーブル、画像、テキストに対する反実仮想説明を紹介しています。
n サーベイ論?をまとめたわけではなく、?分で検索して調べたため、?い網羅性があるとは?えません。
n 各スライドの末尾に引?論?名と国際会議名を載せました。
はじめに
n予測の反実仮想説明とは
nどこで使えるのか
nどんな事例があるか
n反実仮想サンプルの基本的な考え?
nテーブル?AzureMLに実装されているDiCEを使ってみた。
n画像? OmniXAIを使ってみた。
nテキスト?Polyjuiceを使ってみた。
nまとめ
アジェンダ
3
n 予測の反実仮想説明とは、予測結果を期待する出?に変化させるため、特徴量に対して最?の摂動を加えた
サンプルベースの説明?法
n 反実仮想のサンプルを作成することで、モデルがどのように意思決定を?うのか、個々のサンプルがどのように解釈
されるかを知ることができる。
n 「もし?だったらどうなっていたか」「なぜ」という問いに答える。
n この説明?法は、与えられた??に対して、期待する結果を得るための摂動を求める問題に帰着する。
予測の反実仮想説明とは
オリジナル
サンプル
反実仮想サンプル
予測結果
予測結果
摂動 Perturb
予測
予測
期待する出?か?
技術の肝
4
n なぜ、反事実(?動の結果に基づく反事実でなく、観察レベルの?)の結果を知りたいのか?
n ?元にデータがなくとも、今後のことを?据えた対策を事前に取りたいから
なぜ必要なのか
ロバスト評価 誤差分析 予測の説明
MLエンジニア向け データサイエンティスト向け 意思決定タスクに携わる?向け
特定条件下で予測傾向の把握
ルールベースの検討へ
誤差の?きい原因の調査
精度改善へ
「もしも」の把握
意思決定に反映へ
特徴
分
類
確
率
未
観
測
サンプルB
反実仮想B
サンプルB
反実仮想B
どうすれば正しいクラスになる?
どこまで正しい挙動? もしも、少し違ったらどうなる? 5
法律関連 、ヘルスケア、?融業界
AIの結果に対するお客様への説明補強
- 与信審査がなぜ落ちたのかを伝え、次に繋げる
- 「なぜ」から、リスクのあるAI投資の意思決定の後押しになる
- 裁判、病院、保険会社が、結果と説明をお客様に共有し、納得を与える
AIの理解とAIへの信頼
- 「もし」、「なぜ」、を通じて?々に信頼を与える
- 医師はいつ、どのようにAIに頼ればいいのかがわかる
- 予測から説明へのユーザーインタラクションを通してモデルの理解が促進される
応?領域
6
反実仮想サンプルの
基本的な考え?
n[Wachter+ 17] が発表した多くの論?の根幹の考え?
nx?オリジナルサンプル, y?オリジナルラベル
nx??x の反実仮想(CF)サンプル, y??期待するラベル
反実仮想サンプルを求める最適化の考え?
??空間は離れず
予測は期待ラベル
に近づける
[Arxiv 20] Counterfactual Explanations for Machine Learning: A Review 8
(1) Validity?有効性
(2) Actionability ??動可能性
(3) Sparsity?スパース性
(4) Data Manifold closeness ?データ多様体との近接性
(5) Causality ?因果性
理想的な反実仮想例
?間が理解できて、実現可能性が?く、オリジナルなサンプルに似ていること。
先の定式化では、まだ不?分です。
反実仮想例に求められること
9
n 有効性は反実仮想例が予測されたとき、期待するクラスに属するかを表す。
n 最適化した結果、期待するクラスにならないこともある。
n ?成された反実仮想例の総数K に対する、期待クラスラベルを持つ反実仮想例の?率を測定する。
n 妥当性が?いほど望ましい。ほとんどの論?がこの性質を報告している。
有効性(Validity)
Validity =2/2 10
n テーブルデータでは、変更可能な特徴と不可能な特徴がある。
n 推薦の場合、どの特徴が変更可能で(例えば、収?、年齢)、どの特徴が変更不可能か(例えば、?種、出
?国)についての考察が重要。
n 推奨される反実仮想は、決して不変の特徴を変更してはならない。
n ?動可能な特徴の集合をA と呼び、損失関数を次のように更新することができる。
?動可能性 Actionability( Rationality )
?動範囲を制限
[IUI 20] ViCE: Visual Counterfactual Explanations for Machine Learning Models 11
n 変更する特徴の数と、摂動の?きさには、トレードオフが存在する。
n 反実仮想は、理想的には、より少ない数の特徴を変更する必要がある。
スパース性(Sparsity)
[FAT20] Explaining Machine Learning Classifiers through Diverse Counterfactual Explanations
オリジナル
L0/L1 ノルム
12
n 反実仮想サンプルは、学習データに近く、実現性が?いことが望まれる。
n 近接性は、オリジナルサンプルからの反実仮想の距離を測定する。
データ多様体との近接性(Data Manifold closeness )
データセットに近いか
評価指標
望ましい
13
n データセット中の特徴が独?であることは稀であり、現実世界では?つの特徴を変更すると他の特徴に影響を与
える。
n 例えば、新しい学位を取得するためには、年齢を少なくとも上昇させることが必要である。
n 現実的で実?可能であるためには、反実仮想は特徴間の既知の因果関係を維持する必要がある。
?因果グラフの活?
n テキストだとどうなるのか?
n x = “?学?がテーマパークに?供料?で?った。”
n CF(x) = “?校?がテーマパークに学?料?で?った。”
n 学?と?場料の因果関係を踏まえた反実仮想サンプルが作れるのか?
因果性(Causality)
学?
?場料
14
n テーブルデータは最適化アルゴリズムから反実仮想を求めることが多い。
n 画像やテキストの?構造データは?成モデルを?いることが多い。
反実仮想アルゴリズム
画像?テキスト系
テーブル系
Azure ML提供
Polyjuice
後で紹介
G
P
T
2
元図 [Arxiv 21] MCCE: Monte Carlo sampling of realistic counterfactual explanations 15
関连?语
反実仮想例と類似する概念の説明
説明
1と予測したのは右の訓練
画像があったから。
説明
たとえ、右の?成画像のよ
うでも9と予測します。
(?成画像の?がより分類
境界に近い)
説明
もし、画像が真ん中や右の?成画像の
ようになれば8と予測します。
?般的なテーブルデータではなく、画像を例にfactualとsemi-factualとcounterfactualを紹介
左の画像に対して、その説明を右の画像がそれぞれしている。
[AAAI 21] On Generating Plausible Counterfactual and Semi-Factual Explanations for Deep Learning 17
n敵対的学習(Adversarial Learning )
?敵対的学習は、与えられた??を異なる分類にするために、??に最?限の変化を与えることを?的とし
ている。
?敵対的学習の設定には?間に気付かないノイズレベルを??に与えることが多い。
???で、反実仮想説明では、?間が検出可能で、理解可能で、もっともらしいものでなければならない。
関連する?語
オリジナル CF
オリジナル AE
[arXiv 13] Intriguing properties of neural networks
[ACL18] Semantically Equivalent Adversarial Rules for Debugging NLP Models
敵対的サンプル 反実仮想サンプル
18
n対照的説明(Contrastive explanation )
?why P, rather than Q? 「なぜQではなくPなのだろう。」を説明することを?指す。
?会計?でなく、なぜ?医者かと、?われると(2)の??の所属機関が理由
?結果、ある事象が他の事象と対照的になぜ起こったのかが明らかになる。
n半事実説明(Semi-Factual Explanation)
?Even if 「たとえ、何かをしても結果は変わらないだろう。」を出?することを?指す。
?半事実説明は、分類結果を変えないギリギリのサンプルを提?する。
関連する?語
反実仮想
事実
半事実
[EMNLP21] Contrastive Explanations for Model Interpretability
[AAAI21] On Generating Plausible Counterfactual and Semi-Factual Explanations for Deep Learning 19
テーブルデータの
反実仮想説明
nAzureMLでは、テーブルデータに対して、DiCEが実装されている。
nDiCE( Diverse Counterfactual Explanations)
?複数の反事実を求める
?モデルに依存しない計算?法(Azure対応)
? ランダムサンプリング
? KD-Tree (トレーニング データ内の反事実)
? 遺伝的アルゴリズム
?モデルに依存する計算?法
? 勾配ベースな?法
AzureMLの反実仮想説明
https://learn.microsoft.com/ja-jp/azure/machine-learning/concept-counterfactual-analysis
[FAT20] Explaining Machine Learning Classifiers through Diverse Counterfactual Explanations
21
n 以下のように簡単に定義できる。
1. 対象データと推論モデルの選択
2. 反実仮想サンプルを求める?法の選択
3. 現実的に変更可能な特徴の設定
4. 特徴の可動領域の設定
DiCEの実装
https://github.com/interpretml/DiCE/blob/master/docs/source/notebooks/DiCE_getting_started.ipynb
著者チュートリアルから抜粋
22
n データは、DiCEのチュートリアルを例にUCIリポジトリのAdultのデータで実験した。
n タスクは年収が$50Kを超えるかの?クラス分類(1?超える、0?超えない)
n サンプル例に対して、反実仮想サンプルを4つ?成した。性別が変わるなど実現性に無理がある。
やってみた。
https://archive.ics.uci.edu/ml/datasets/adult
年収が$50Kを超えるには?
23
n 先の例に、仮に年齢と教育と職業のみを変更可能とする。
n 結果、年齢が77や90になっている。現実的な範囲が求められる。
変更可能な特徴を絞る
年収が$50Kを超えるには?
24
特徴の可能な範囲を狭める
n 先の例に、年齢の範囲を[20,60]とする。
n 結果、四捨五?した61歳までの範囲の結果が求められる。
n この場合、年齢が60歳になるまでに教育を受け、職業を変えると超えられるらしい。
年収が$50Kを超えるには?
25
画像データの
反実仮想説明
n salesforceが公開している説明性のライブラリ。
n 2022年6?にArxivでプレプリントも出てている。
n テーブルだけでなく、テキスト、画像、時系列も説明性対応している。
OmniXAI: A Library for Explainable AI
https://github.com/salesforce/OmniXAI 27
n OmniXAIを?いると数?で実装でき、数秒で結果が得られる。
n ほとんどが納得のいく結果が得られた。
MNISTを?いた反実仮想サンプル
チュートリアル?https://opensource.salesforce.com/OmniXAI/latest/tutorials/vision/ce_torch.html 28
この線があると
9に?える。
より現実的なデータセットで試した
https://ebird.org/species/houfin
本物のhouse finch
https://ebird.org/species/greegr
本物のgreat egart
n Resnet50を?いて、CUB 200 2011のデータセットで実験してみた。?枚につき数?秒はかかる。
n 反実仮想サンプルを作ったが、予想通りノイズレベルの摂動に留まる。
CUB -200-2011: https://www.vision.Caltech.edu/datasets/cub_200_2011/ 29
n 先のように、画像上ではどうしても摂動がノイズになり、説明にならない。
n そこで摂動対象を概念活性化ベクトル [Kim 18] に変えたConceptual Counterfactual Explanations(CCE)を提案
n 説明?法は図c)のように、間違えた予測を正しい予測に変えるために必要な概念ベクトルが緑で?される。
n 図c)はシマウマなのにストライプがないために別クラスになっているとわかる。
概念レベルの反実仮想例に向けて
[ICML 22] Meaningfully Debugging Model Mistakes using Conceptual Counterfactual Explanations 30
n 概念活性化ベクトル Concept activation vectors (CAVs) [Kim 18]の算出?法を説明する。
1. まず概念は?が定義する。 定義をするのは、ドメインエキスパートが望ましい。
2. 次に各概念に対する正例と負例を訓練データから100件程度選ぶ。
3. 選択データを分類器の中間層の特徴量でSVM分類器を学習し、分類境界の法線ベクトルを概念ベクトルとする。
n 図だとストライプの概念をベクトルを計算している。
n こうして、各概念ベクトルを計算し、説明時に利?する。
?然画像の場合は以下の?般概念170個を定義していた。
(a) 特定の物体の存在(例?鏡、?物)
(b) 状況(例?道路、雪)
(c) 質感(例?ストライプ、?属)
(d) 画像の質(例?ぼやけ、緑)
概念活性化ベクトルの算出?法
31
n 先の概念ベクトルを?いて、ある画像を正しいクラスに変える場合、どの概念ベクトルが必要か計算する。
n つまり、特徴空間上で、どの概念ベクトルを今の特徴ベクトルにたせば正しいクラスになるのか求める。
n 図b)だとシマウマが?側に分類されており、オレンジのベクトルを?すとシマウマになる例である。
n ここで求める摂動はwC になる。
摂動の求め?
Sparsity
概念ベクトル数削減
中間特徴 b に概念ベクトルを?して最終層 t の結果が
正しいクラス y になるための損失関数
Validity
画像内に既にある概念の重みはゼロ
ある概念だけの説明にならないよう最?値も制限
32
n 誤差分析は多くのテストサンプルでモデルの誤りを?作業で調べ、誤分類の原因を推測する、アドホックなプロセス
n CCEを?いると擬似相関に関してシステマチックに?つけられる。
図の説明
n ?と雪が?緒に写る画像で動物分類モデルを学習すると雪があれば?と分類モデルになる。
n テスト画像に草背景の?を??すると誤分類する。CCEを計算すると雪、?、ベッドが上位にくる。
n つまり、このモデルは雪が写っていないと?と認識しないことが分かり、擬似相関が?抜ける。
CCEによるモデルのデバッグ
33
テキストデータの
反実仮想説明
n テーブルや画像のような最適化による反実仮想説明を求めない。
n ?間が、?動でテキストを書き換えたり、摂動関数を定義し、反実仮想サンプルを作成する。
n 反実仮想サンプルを推論し、結果から反実仮想説明を求める。
n 紹介するPolyjuiceは?成モデルGPT-2を頼り、反実仮想サンプルの作成を効率化する。
n ?動でテキストを書き換え
?[ACL 20] Beyond accuracy: Behavioral testing of NLP models with CheckList.
?[ICLR 20] Learning the difference that makes A difference with counterfactually-augmented data.
n 摂動関数を定義
?[ACL 20] Semantically equivalent adversarial rules for debugging NLP models
n 制御可能な?成モデルの利?
?[ACL 21] Polyjuice: Generating Counterfactuals for Explaining, Evaluating, and Improving Models
テキストの反実仮想説明の現状
35
n NLPの反実仮想サンプルは?かAIが?成している。
n 期待するクラスに予測を変えるにはどうすれば良いのか。
n NLPでは、y?に対するx?を求める逆問題が、?成x1,…,xn を推論し、y?になるサンプルを探す問題に変わって
いる。
n ?成の条件づけが、?が解釈するのに直感的なものかがポイントになる。
テキストの反実仮想は説明性として機能しているのか
Why x’ ? Because
f
?が条件を数ある中から決める
?かAIにより?成
f
,
は対応する を反実仮想説明とする。
Why x’ ? Because
の中に があれば、
従来の?法 テキストの場合
36
n 下図は、意味的に違和感のない敵対的?章を変換ルールで作成する。
? 単語の?い換え
n この?法は複数のルールから共通する要因を?が調べ、予測モデルの傾向に気づかせる。
n 単語を省略形にすると間違う?率が?いから、このモデルは省略形に弱いと?に想起させる。
既存?法?意味的に同じな敵対的?章による説明
[ACL20] Semantically equivalent adversarial rules for debugging NLP models
変換ルール
G(z)
z
37
アノテーターに?章を修正するよう指?しデータ拡張
変更の条件
(a)反実仮想ラベルが適?されること
(b)?書の?貫性を保つこと
(c)不必要な修正をしないこと
n アノテーションの結果
? 8つの共通パターンを発?(右表)
既存?法?アノテーターに反実仮想サンプルの作成
[ICLR20] Learning the difference that makes A difference with counterfactually-augmented data.
[arXiv 20] Evaluating models’ local decision boundaries via contrast sets.
期待される事実の?い換え
??の追加
修飾語の挿?
修飾語の変換
フレーズの挿?
修飾語による感情の減衰
異なる視点
レーティングの変更
G(z)
z
38
既存?法?意図に沿って?が反実仮想サンプルを作成
[ACL20] Beyond accuracy: Behavioral testing of NLP models with CheckList.
n ロバスト性を確認するために要件ごとにテキストを?が編集し、テス
ト形式で調査しています。
A 単体テスト
? 正常動作を確認
B 不変性テスト((Invariance test )
? 現実的にラベルが変わらない範囲でワードを変えて予測が不変か確
認
C ラベル変化テスト (A Directional Expectation test)
? 元?と類似するがラベルが変化する?章で正しく予測ラベルが変化
するか確認
G(z)
z
39
n 反実仮想サンプルをGPT-2によって?成できること
ü?成させたい反実仮想のルールを部分的に制御可能
ü反実仮想?章を?が作らなくて良い
ü質の?い?章を作れる
Polyjuiceの良いところ
Polyjuiceの全体構成
?成可能な条件リスト
z G(z)
[ACL 21] Polyjuice: Generating Counterfactuals for Explaining, Evaluating, and Improving Models 40
n 元?章の[BLANK]部分に対して、否定的な?章を?成してみた。
1. # the base sentence
2. text = "It's sunny today, so we'll play outside."
3. b_text = "It's sunny today, so we [BLANK] outside.”
4. pj = Polyjuice(model_path="uw-hai/polyjuice", is_cuda=True)
5. perturbations = pj.perturb(
6. orig_sent=text, #オリジナル?章
7. blanked_sent=b_text, #ブランク付き?章
8. ctrl_code=“negation”, #制御ルール
9. perplex_thred=5, #?成?章の質の閾値
10. num_perturbations=3, #?成?の返り値の最?数
11. )
12.print(perturbations)
[Out]: ["It's sunny today, so we don't need to play outside.", "It's sunny today, so we don't have to go outside."]
やってみた
41
n 制御ルールを与えずに?成させることも可能。
Text =“週末に台?が来るから、どこにも出かけられない。”
A typhoon is coming this weekend, so I can't go out anywhere.
?成結果
n "今週末は台?が来るから、海に?けないよ”
n "今週末は台?が来るから、どこにも出かけられないよ”
n "今週末は台?が来るから、仕事に?けないよ"
n "I have a typhoon this weekend, so I can't go to the beach.”
n "The typhoon is coming this weekend, so I can't go out anywhere.”
n "I have a typhoon this weekend, so I can't go to work."
別の?成例
42
nモデルの説明
?SHAPの重要度が?い単語、または重要度が低い単語の反実仮想サンプルを?成
?ユーザーは、反実仮想のモデルの予測結果を予想してもらい、そのエラー率で質の?い反実仮想例を?成
できたか評価する。
nモデルの評価
?制御ルールで?成した反事実仮想例をアノテーションして Contrast sets とし、モデルを評価
? Contrast sets は、分類境界上のサンプルで構成されるテストデータセット
?分類モデルの性能が下がることが予想される。
nモデルの改善
?反実仮想サンプルをデータ拡張として利?する。
?次ページで説明
Polyjuiceの使い道
43
n 反実仮想サンプルをデータ拡張として利?する。
n 感情分析の場合、精度が変わらないことが多い。
n オレンジのContrast sets に関しては、分類境界上のロバスト性が?まったことで精度が上がったと考えられる。
Polyjuiceの使い道?モデルの改善
44
まとめ
n 反実仮想説明の概要と求められることを紹介しました。
n テーブル、画像、テキストに対して、簡単な実装例と最新論?の紹介をしました。
n 画像は、概念レベル(背景雪、?の?、?の形)で反事実を得ようとしてます。
n テキストは、条件をもとに?章を多数?成し、テストケースで反事実を得ようとしています。
n 画像とテキストに共通して、?間のドメイン知識を解釈?法に組み込もうとしています。
? 画像の場合、概念をベクトル化する際に、概念の選別は?が決めます。
? テキストの場合、?成させる条件を?が決めます。
n 業務知識のある?たちが?分の意思決定する要因を洗い出し、それらを解釈?法に組み込むことで信頼のある
AIに近づくと考えます。
まとめ
46
Ad

Recommended

0から理解するニューラルネットアーキテクチャサーチ(狈础厂)
0から理解するニューラルネットアーキテクチャサーチ(狈础厂)
MasanoriSuganuma
?
机械学习モデルの判断根拠の説明
机械学习モデルの判断根拠の説明
Satoshi Hara
?
机械学习モデルの判断根拠の説明(Ver.2)
机械学习モデルの判断根拠の説明(Ver.2)
Satoshi Hara
?
研究法(颁濒补颈尘とは)
研究法(颁濒补颈尘とは)
Jun Rekimoto
?
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
?
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII
?
グラフィカルモデル入门
グラフィカルモデル入门
Kawamoto_Kazuhiko
?
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
?
4 データ間の距離と類似度
4 データ間の距離と類似度
Seiichi Uchida
?
Transformer メタサーベイ
Transformer メタサーベイ
cvpaper. challenge
?
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
?
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
Deep Learning JP
?
摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习
Deep Learning JP
?
SSII2020TS: 机械学习モデルの判断根拠の説明? ? Explainable AI 研究の近年の展開 ??
SSII2020TS: 机械学习モデルの判断根拠の説明? ? Explainable AI 研究の近年の展開 ??
SSII
?
Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究
Fumihiko Takahashi
?
骋础狈(と强化学习との関係)
骋础狈(と强化学习との関係)
Masahiro Suzuki
?
研究効率化Tips Ver.2
研究効率化Tips Ver.2
cvpaper. challenge
?
探索と活用の戦略 ヘ?イス?最適化と多腕バンディット
探索と活用の戦略 ヘ?イス?最適化と多腕バンディット
H Okazaki
?
多人数不完全情報ゲームにおけるAI ~ポーカーと麻雀を例として~
多人数不完全情報ゲームにおけるAI ~ポーカーと麻雀を例として~
Kenshi Abe
?
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
?
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
?
笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...
DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...
harmonylab
?
機械学習 入門
機械学習 入門
Hayato Maki
?
机械学习による统计的実験计画(ベイズ最适化を中心に)
机械学习による统计的実験计画(ベイズ最适化を中心に)
Kota Matsui
?
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
?
初めてのグラフカット
初めてのグラフカット
Tsubasa Hirakawa
?
机械学习のためのベイズ最适化入门
机械学习のためのベイズ最适化入门
hoxo_m
?
大规模画像认识とその周辺
大规模画像认识とその周辺
n_hidekey
?
おしゃスタ蔼リクルート
おしゃスタ蔼リクルート
Issei Kurahashi
?

More Related Content

What's hot (20)

4 データ間の距離と類似度
4 データ間の距離と類似度
Seiichi Uchida
?
Transformer メタサーベイ
Transformer メタサーベイ
cvpaper. challenge
?
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
?
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
Deep Learning JP
?
摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习
Deep Learning JP
?
SSII2020TS: 机械学习モデルの判断根拠の説明? ? Explainable AI 研究の近年の展開 ??
SSII2020TS: 机械学习モデルの判断根拠の説明? ? Explainable AI 研究の近年の展開 ??
SSII
?
Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究
Fumihiko Takahashi
?
骋础狈(と强化学习との関係)
骋础狈(と强化学习との関係)
Masahiro Suzuki
?
研究効率化Tips Ver.2
研究効率化Tips Ver.2
cvpaper. challenge
?
探索と活用の戦略 ヘ?イス?最適化と多腕バンディット
探索と活用の戦略 ヘ?イス?最適化と多腕バンディット
H Okazaki
?
多人数不完全情報ゲームにおけるAI ~ポーカーと麻雀を例として~
多人数不完全情報ゲームにおけるAI ~ポーカーと麻雀を例として~
Kenshi Abe
?
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
?
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
?
笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...
DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...
harmonylab
?
機械学習 入門
機械学習 入門
Hayato Maki
?
机械学习による统计的実験计画(ベイズ最适化を中心に)
机械学习による统计的実験计画(ベイズ最适化を中心に)
Kota Matsui
?
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
?
初めてのグラフカット
初めてのグラフカット
Tsubasa Hirakawa
?
机械学习のためのベイズ最适化入门
机械学习のためのベイズ最适化入门
hoxo_m
?
4 データ間の距離と類似度
4 データ間の距離と類似度
Seiichi Uchida
?
畳み込みニューラルネットワークの高精度化と高速化
畳み込みニューラルネットワークの高精度化と高速化
Yusuke Uchida
?
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
摆顿尝轮読会闭滨颁尝搁2020の分布外検知速报
Deep Learning JP
?
摆顿尝轮読会闭相互情报量最大化による表现学习
摆顿尝轮読会闭相互情报量最大化による表现学习
Deep Learning JP
?
SSII2020TS: 机械学习モデルの判断根拠の説明? ? Explainable AI 研究の近年の展開 ??
SSII2020TS: 机械学习モデルの判断根拠の説明? ? Explainable AI 研究の近年の展開 ??
SSII
?
Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究
Fumihiko Takahashi
?
骋础狈(と强化学习との関係)
骋础狈(と强化学习との関係)
Masahiro Suzuki
?
探索と活用の戦略 ヘ?イス?最適化と多腕バンディット
探索と活用の戦略 ヘ?イス?最適化と多腕バンディット
H Okazaki
?
多人数不完全情報ゲームにおけるAI ~ポーカーと麻雀を例として~
多人数不完全情報ゲームにおけるAI ~ポーカーと麻雀を例として~
Kenshi Abe
?
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
?
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
?
笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...
DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-D...
harmonylab
?
機械学習 入門
機械学習 入門
Hayato Maki
?
机械学习による统计的実験计画(ベイズ最适化を中心に)
机械学习による统计的実験计画(ベイズ最适化を中心に)
Kota Matsui
?
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
?
初めてのグラフカット
初めてのグラフカット
Tsubasa Hirakawa
?
机械学习のためのベイズ最适化入门
机械学习のためのベイズ最适化入门
hoxo_m
?

Similar to テーブル?テキスト?画像の反実仮想説明 (20)

大规模画像认识とその周辺
大规模画像认识とその周辺
n_hidekey
?
おしゃスタ蔼リクルート
おしゃスタ蔼リクルート
Issei Kurahashi
?
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Yasutomo Kawanishi
?
【厂厂滨滨2015】人を観る技术の先端的研究
【厂厂滨滨2015】人を観る技术の先端的研究
Hirokatsu Kataoka
?
画像処理分野における研究事例绍介
画像処理分野における研究事例绍介
nlab_utokyo
?
Opencv object detection_takmin
Opencv object detection_takmin
Takuya Minagawa
?
Deep Learningと画像認識   ~歴史?理論?実践~
Deep Learningと画像認識   ~歴史?理論?実践~
nlab_utokyo
?
サブカルのための奥辞谤诲2惫别肠
サブカルのための奥辞谤诲2惫别肠
DeNA
?
オープンなデータベースを利用した行动计画提案に関する研究
オープンなデータベースを利用した行动计画提案に関する研究
Fumihiro Kato
?
第18回コンピュータビジョン勉强会@関东「滨颁颁痴祭り」発表资料(办补苍别箩补办颈)
第18回コンピュータビジョン勉强会@関东「滨颁颁痴祭り」発表资料(办补苍别箩补办颈)
kanejaki
?
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??
SSII
?
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
Deep Learning JP
?
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
cvpaper. challenge
?
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞奥别产尘颈苍颈苍驳#17
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞奥别产尘颈苍颈苍驳#17
Yuya Unno
?
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
Daiki Shimada
?
Semantic segmentation
Semantic segmentation
Takuya Minagawa
?
bigdata2012ml okanohara
bigdata2012ml okanohara
Preferred Networks
?
Adversarial Networks の画像生成に迫る @WBAFLカシ?ュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカシ?ュアルトーク#3
Daiki Shimada
?
データとは何か
データとは何か
Kenta Suzuki
?
大规模画像认识とその周辺
大规模画像认识とその周辺
n_hidekey
?
おしゃスタ蔼リクルート
おしゃスタ蔼リクルート
Issei Kurahashi
?
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Yasutomo Kawanishi
?
【厂厂滨滨2015】人を観る技术の先端的研究
【厂厂滨滨2015】人を観る技术の先端的研究
Hirokatsu Kataoka
?
画像処理分野における研究事例绍介
画像処理分野における研究事例绍介
nlab_utokyo
?
Opencv object detection_takmin
Opencv object detection_takmin
Takuya Minagawa
?
Deep Learningと画像認識   ~歴史?理論?実践~
Deep Learningと画像認識   ~歴史?理論?実践~
nlab_utokyo
?
サブカルのための奥辞谤诲2惫别肠
サブカルのための奥辞谤诲2惫别肠
DeNA
?
オープンなデータベースを利用した行动计画提案に関する研究
オープンなデータベースを利用した行动计画提案に関する研究
Fumihiro Kato
?
第18回コンピュータビジョン勉强会@関东「滨颁颁痴祭り」発表资料(办补苍别箩补办颈)
第18回コンピュータビジョン勉强会@関东「滨颁颁痴祭り」発表资料(办补苍别箩补办颈)
kanejaki
?
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??
SSII
?
[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
Deep Learning JP
?
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
cvpaper. challenge
?
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞奥别产尘颈苍颈苍驳#17
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞奥别产尘颈苍颈苍驳#17
Yuya Unno
?
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
Daiki Shimada
?
Adversarial Networks の画像生成に迫る @WBAFLカシ?ュアルトーク#3
Adversarial Networks の画像生成に迫る @WBAFLカシ?ュアルトーク#3
Daiki Shimada
?
データとは何か
データとは何か
Kenta Suzuki
?
Ad

More from tmtm otm (15)

自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
tmtm otm
?
予测の不确かさのユーザー调査
予测の不确かさのユーザー调査
tmtm otm
?
[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題
tmtm otm
?
ICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性について
tmtm otm
?
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2
tmtm otm
?
PRML 条件付き混合モデル 14.5
PRML 条件付き混合モデル 14.5
tmtm otm
?
PRML 多項式曲線フィッティング 1.1
PRML 多項式曲線フィッティング 1.1
tmtm otm
?
PRML 2.3.7 2.3.9
PRML 2.3.7 2.3.9
tmtm otm
?
PRML エビデンス近似 3.5 3.6.1
PRML エビデンス近似 3.5 3.6.1
tmtm otm
?
PRML カーネルPCA 12.2.3 12.3
PRML カーネルPCA 12.2.3 12.3
tmtm otm
?
PRML BNN 5.7 5.7.3
PRML BNN 5.7 5.7.3
tmtm otm
?
PRML RVM 7.2 7.2.3
PRML RVM 7.2 7.2.3
tmtm otm
?
PRML EP法 10.7 10.7.2
PRML EP法 10.7 10.7.2
tmtm otm
?
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
自然言語処理における深層学習を用いた予測の不確実性 - Predictive Uncertainty in NLP -
tmtm otm
?
予测の不确かさのユーザー调査
予测の不确かさのユーザー调査
tmtm otm
?
[論文紹介] 機械学習システムの安全性における未解決な問題
[論文紹介] 機械学習システムの安全性における未解決な問題
tmtm otm
?
ICML 2021 Workshop 深層学習の不確実性について
ICML 2021 Workshop 深層学習の不確実性について
tmtm otm
?
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
PRML ベイズロジスティック回帰 4.5 4.5.2
PRML ベイズロジスティック回帰 4.5 4.5.2
tmtm otm
?
PRML 条件付き混合モデル 14.5
PRML 条件付き混合モデル 14.5
tmtm otm
?
PRML 多項式曲線フィッティング 1.1
PRML 多項式曲線フィッティング 1.1
tmtm otm
?
PRML 2.3.7 2.3.9
PRML 2.3.7 2.3.9
tmtm otm
?
PRML エビデンス近似 3.5 3.6.1
PRML エビデンス近似 3.5 3.6.1
tmtm otm
?
PRML カーネルPCA 12.2.3 12.3
PRML カーネルPCA 12.2.3 12.3
tmtm otm
?
PRML BNN 5.7 5.7.3
PRML BNN 5.7 5.7.3
tmtm otm
?
PRML RVM 7.2 7.2.3
PRML RVM 7.2 7.2.3
tmtm otm
?
PRML EP法 10.7 10.7.2
PRML EP法 10.7 10.7.2
tmtm otm
?
Ad

テーブル?テキスト?画像の反実仮想説明