狠狠撸

狠狠撸Share a Scribd company logo
【 WWW2012 勉強会】


Session 30: Information Extraction

 担当: 塚原裕史(デンソーアイティーラボラトリ)
論文リスト

?   "Micropinion Generation: An Unsupervised Approach to Generating
    Ultra-Concise Summaries of Opinions",
    ?   Kavita Ganesan, ChengXiang Zhai, Evelyne Viegas
    ?   要旨 :
           ?   人が読んで分かる要約文生成
           ?   タグ付けや教師データを必要としない


?   "A Flexible Large Scale Topic Modeling Package using Variational
    Inference in MapReduce",
    ?   Ke Zhai, Jordan Boyd-Graber, Nima Asadi, Mohamad Alkhouja
    ?   要旨 :
           ?   MapReduce 形式による変分ベイズ法を用いた LDA 計算法
           ?   Callapsed Gibbs Sampling よりもスケールアウトできる




    2       Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                           ラトリ)
Paper 1
"Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",  
Kavita Ganesan et. al.

?モチベーション
  ?   ブログやニュース記事として、多くの評判情報が集まっており、
      これらの評判を文章として段階的に要約し、内容を理解できるよ
      うにしたい。

       ?   “micropinion” と呼ぶ


  ?   これまでの評判情報要約では、元の文章とは異なる構造化された
      簡潔な情報に変換されていたので、上記のようなことができなか
      った:

       ?   単純な極性判別: “ positive” or “negative”
       ?   カテゴリごとの評価値 :   buttery life: 1 star, screen: 3.5 star etc.
       ?   Key words or phrases extraction :  buttery, life, screen, short, clear, etc.

 3           Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                            ラトリ)
Paper 1
"Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",  
Kavita Ganesan et. al.

?Micropinion            の事例 ( 制約: less than 10 words)

  ?   MP3 Player Y: (8 words)
       ?   Very short battery life. Big and clear screen.

  ?   Restaurant X: (9 words)
       ?   Good service. Delicious soup dishes. Very noisy at nights.


?ポイント
  ?   可読な文への要約
  ?   最大単語数を設定可能



 4          Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                           ラトリ)
Paper 1
"Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",  
Kavita Ganesan et. al.

?方法
  ?   フレーズの代表性と可読性の指標を設計し、それらの和を最大化
      するフレーズ(単語の組合せ)の組みを検索する。(最適化問題
      )

?代表性
  ?   フレーズ内の各単語のローカル相互情報量の平均値
       ?   ローカル相互情報量: コンテキストウインドウ内での補正相互情報量の
           平均値
       ?   補正相互情報量: コンテキストウインドウ内で共起し易い単語間で値が
           大きくなるように、ヒューリスティックな補正を入れたもの。
           ?   通常の相互情報量では、頻出しない単語間で値が大きくなり、代表性という観点
               では問題がある。
?可読性
  ?   N-gram 言語モデルによる対数尤度の平均値
 5
       ?   Microsoft の trigram 言語モデル使用 担当:塚原裕史(デンソーITラボ
            Session 30: Information Extraction
                                                                                                     ラトリ)
Paper 1
"Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",  
Kavita Ganesan et. al.

?最適化手順
  ?   1.シードとなるバイグラム生成
  ?   2. N グラム候補生成
  ?   3.候補 N グラムから候補フレーズ生成
  ?   4. Depth-first search による Micropinion 決定
                                              フレーズ m                                    スコア
                                              w1 w2 w4 w8                          S rep ( m ) + S read ( m )




                候補Nグラム             w1 w2 w4                   w5 w6 w8




      シードバイグラム             w1 w2          w3 w4          w5 w6           w7 w8




 6          Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                           ラトリ)
Paper 1
"Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",  
Kavita Ganesan et. al.

?評価
  ?   データセット
       ?   CNET における製品レビューデータ
  ?   定量的評価指標
       ?   ROUGE
  ?   定性的評価指標
       ?   Gramaticality
       ?   Non-redundancy
       ?   Informativeness
  ?   ベースライン ( 従来手法 )
       ?   TF-IDF ベース
       ?   KEA
       ?   Opinosis

 7          Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                           ラトリ)
Paper 1
"Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",  
Kavita Ganesan et. al.

?結論
       ?   主要な提案:
           ?   代表性と可読性に基づく最適化問題による定式化
           ?   上記最適化問題の高速な近似解探索手法を提案


       ?   主要な性質:
           ?   従来手法にくらべて、可読性の高い要約文を生成できる

       ?   モデル的に有利な点:
           ?   教師なし学習 → 低コスト
           ?   計算量が小さい → 高速
           ?   形態素解析や構文解析不要 → 多言語への拡張性




 8             Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                              ラトリ)
Paper 2
    "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",  
    Ke Zhai et. al.

?    モチベーション
     ?   LDA の計算手法として Collapsed Gibbs Sampling が良く使われている
          ?   実装が簡単
     ?   Collapsed Gibbs Sampling は、並列化してもパフォーマンスが出ない
          ?   ノード全体で共有する状態があるため(実際には定期的に同期を取りながら計算)
          ?   明確な収束判定基準がない


?    Collapsed Gibbs Sampling での計算
     ? (#topics in a document) * (#words in a topic across all documents)



                                          この部分で同期が必要となり並列化の効率に影響




    9           Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                               ラトリ)
Paper 2
    "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",  
    Ke Zhai et. al.

?    方法
     ?   変分ベイズ法による LDA 計算を MapReduce の形式へ並列化

     ?   変分ベイズ法における反復更新処理
                  φ v(,d ) ∝ Eq [ β v ,k ]e Ψ ( γ k )
                       k

                                                          文書ごとの処理                          Map
                                      V
                 γ d ,k = α k + ∑ φ v(,d )
                                       k
                                     v =1



                 λv ,k = η v ,k + ∑ ( wv( d )φv(.dk ) )
                                     C
                                                          文書全体での処理                        Reduce
                                    d =1




          α new = α old ? H ?1 ( α old ) g ( α old )      モデル全体の制御                         Driver


    10          Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                               ラトリ)
Paper 2
    "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",  
    Ke Zhai et. al.

?    MapReduce での処理の流れ
                                                                                                                                                                                                   Hyperparameters
              Mapper                                                                                                                                                                                (α   k   , λv ,k ) t → (α k , λv ,k ) t +1

文書

d             (γ    d ,k              ) ?
                                        ?
                                                                                 ? K         ??
                           , φ v(,d ) → ? γ d , k , φ v(,d ) , Ψ ( γ d , k ) ? Ψ ? ∑ γ d , k ? ?
                                                                                               ?
                                                                                                                     Reducer
                                     t
                                                                                 ? k =1      ? ?t +1
                                  k                      k
                                        ?

                                                                                                                     (η , {φ })                   ?                          ? K        ??
                                                                                                                                                             C

                                                                                                                       v ,k
                                                                                                                                (d )
                                                                                                                                                → ? λv ,k , ∑ Ψ (γ d ,k ) ? Ψ? ∑ γ d ,k ? ?
                                                                                                                                                  ?                                       ?
                                                                                                                                        t
                                                                                                                                                                             ? k =1     ? ?t +1
                                                                                                                                v ,k
                                                                                                                                                  ?         d =1




              (γ                  )     ?                                        ? K         ??                                                                                                     Driver
d                  d ,k    , φ v(,d ) → ? γ d , k , φ v(,d ) , Ψ ( γ d , k ) ? Ψ ? ∑ γ d , k ? ?
                                  k  t
                                        ?
                                        ?
                                                         k
                                                                                 ? k =1
                                                                                               ?
                                                                                             ? ?t +1

                                                                                                                     (η , {φ })
                                                                                                                      v ,k
                                                                                                                               (d )
                                                                                                                               v ,k     t
                                                                                                                                                  ?
                                                                                                                                                  ?
                                                                                                                                                  ?
                                                                                                                                                             C


                                                                                                                                                            d =1
                                                                                                                                                                             ? K
                                                                                                                                                                             ? k =1
                                                                                                                                                                                        ??
                                                                                                                                                → ? λv ,k , ∑ Ψ (γ d ,k ) ? Ψ? ∑ γ d ,k ? ?
                                                                                                                                                                                          ?
                                                                                                                                                                                        ? ?t +1
                                                                                                                                                                                                               (α k ) t → (α k ) t +1
d             (γ   d ,k           )    ?                                        ? K         ??
                          , φ v(,d ) → ? γ d , k , φ v(,d ) , Ψ ( γ d , k ) ? Ψ ? ∑ γ d , k ? ?
                                       ?                                                      ?
                                    t
                                                                                ? k =1      ? ?t +1
                                 k                      k
                                       ?

                                                                                                                     (η , {φ })                    ?                          ? K        ??
                                                                                                                                                              C

                                                                                                                        v ,k
                                                                                                                                 (d )
                                                                                                                                                 → ? λv ,k , ∑ Ψ (γ d ,k ) ? Ψ? ∑ γ d ,k ? ?
                                                                                                                                                   ?                                       ?
                                                                                                                                            t
                                                                                                                                                                              ? k =1     ? ?t +1
                                                                                                                                 v ,k
                                                                                                                                                   ?         d =1

                                                                                                                                                                                                       Test Convergence
d             (γ                  )    ?
                                       ?
                                                                                ? K         ??
                          , φ v(,d ) → ? γ d , k , φ v(,d ) , Ψ ( γ d , k ) ? Ψ ? ∑ γ d , k ? ?
                                                                                              ?
                                                                                                                                                                                                   (Likelihood Computation)
                   d ,k             t
                                                                                ? k =1      ? ?t +1
                                 k                      k
                                       ?


                                                                                                       partitioner




    11               Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                                    ラトリ)
Paper 2
    "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",  
    Ke Zhai et. al.

?    結論
     ?    従来実装 (Mahout) に比べて、処理速度?事後分布の近似精度の
          両面で、非常に良く改善されている。
                                                                                           (論文から引用)
                                                                     事
         L = Eq [ log( p ( D Z ) p ( Z Θ ) ) ] ? Eq [ log q( Z ) ]   後
                                                                     分
                                                                     布
         変分ベイズでは、この量を最大化する                                           へ
                                                                     の
                                                                     下
                                                                     限
                                                                                     学習時間

?    Remark
     ?    Collapsed Gibbs Sampling の並列化に関しては Mallet というラ
          イブラリがあるが、それとの比較がないので、変分ベイズ法の方
          が本当に良いと言って良いのか、実際にどれくらいの差があるの
          か気になる。

    12            Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ
                                                                 ラトリ)

More Related Content

What's hot (20)

颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
高位合成でDeep learning
高位合成でDeep learning高位合成でDeep learning
高位合成でDeep learning
Mori Labo.
?
DQNからRainbowまで ?深層強化学習の最新動向?
DQNからRainbowまで ?深層強化学習の最新動向?DQNからRainbowまで ?深層強化学習の最新動向?
DQNからRainbowまで ?深層強化学習の最新動向?
Jun Okumura
?
深層学習 第4章 大規模深層学習の実現技術
深層学習 第4章 大規模深層学習の実現技術深層学習 第4章 大規模深層学習の実現技術
深層学習 第4章 大規模深層学習の実現技術
孝昌 田中
?
SSII2021 [TS2] 深層強化学習 ? 強化学習の基礎から応用まで ?
SSII2021 [TS2] 深層強化学習 ? 強化学習の基礎から応用まで ?SSII2021 [TS2] 深層強化学習 ? 強化学習の基礎から応用まで ?
SSII2021 [TS2] 深層強化学習 ? 強化学習の基礎から応用まで ?
SSII
?
論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning
Kazuki Adachi
?
笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Masayoshi Kondo
?
深层强化学习の分散化?搁狈狈利用の动向?搁2顿2の绍介をもとに?
深层强化学习の分散化?搁狈狈利用の动向?搁2顿2の绍介をもとに?深层强化学习の分散化?搁狈狈利用の动向?搁2顿2の绍介をもとに?
深层强化学习の分散化?搁狈狈利用の动向?搁2顿2の绍介をもとに?
Jun Okumura
?
机械学习を用いた奥别产上の产学连携関连文书の抽出
机械学习を用いた奥别产上の产学连携関连文书の抽出机械学习を用いた奥别产上の产学连携関连文书の抽出
机械学习を用いた奥别产上の产学连携関连文书の抽出
National Institute of Informatics
?
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
Takuma Yagi
?
第64回情報科学談話会(岡﨑 直観 准教授)
第64回情報科学談話会(岡﨑 直観 准教授) 第64回情報科学談話会(岡﨑 直観 准教授)
第64回情報科学談話会(岡﨑 直観 准教授)
gsis gsis
?
Introduction to A3C model
Introduction to A3C modelIntroduction to A3C model
Introduction to A3C model
WEBFARMER. ltd.
?
Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
magoroku Yamamoto
?
Pythonて?体験する深層学習 5章
Pythonて?体験する深層学習 5章Pythonて?体験する深層学習 5章
Pythonて?体験する深層学習 5章
孝好 飯塚
?
机械学习と深层学习の数理
机械学习と深层学习の数理机械学习と深层学习の数理
机械学习と深层学习の数理
Ryo Nakamura
?
Clustering _ishii_2014__ch10
Clustering  _ishii_2014__ch10Clustering  _ishii_2014__ch10
Clustering _ishii_2014__ch10
Kota Mori
?
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
Hiroki Nakahara
?
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
Hiroki Nakahara
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用颁丑补颈苍别谤の使い方と自然言语処理への応用
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
高位合成でDeep learning
高位合成でDeep learning高位合成でDeep learning
高位合成でDeep learning
Mori Labo.
?
DQNからRainbowまで ?深層強化学習の最新動向?
DQNからRainbowまで ?深層強化学習の最新動向?DQNからRainbowまで ?深層強化学習の最新動向?
DQNからRainbowまで ?深層強化学習の最新動向?
Jun Okumura
?
深層学習 第4章 大規模深層学習の実現技術
深層学習 第4章 大規模深層学習の実現技術深層学習 第4章 大規模深層学習の実現技術
深層学習 第4章 大規模深層学習の実現技術
孝昌 田中
?
SSII2021 [TS2] 深層強化学習 ? 強化学習の基礎から応用まで ?
SSII2021 [TS2] 深層強化学習 ? 強化学習の基礎から応用まで ?SSII2021 [TS2] 深層強化学習 ? 強化学習の基礎から応用まで ?
SSII2021 [TS2] 深層強化学習 ? 強化学習の基礎から応用まで ?
SSII
?
論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning
Kazuki Adachi
?
笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説笔颁础の最终形态骋笔尝痴惭の解説
笔颁础の最终形态骋笔尝痴惭の解説
弘毅 露崎
?
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Get To The Point: Summarization with Pointer-Generator Networks_acl17_論文紹介
Masayoshi Kondo
?
深层强化学习の分散化?搁狈狈利用の动向?搁2顿2の绍介をもとに?
深层强化学习の分散化?搁狈狈利用の动向?搁2顿2の绍介をもとに?深层强化学习の分散化?搁狈狈利用の动向?搁2顿2の绍介をもとに?
深层强化学习の分散化?搁狈狈利用の动向?搁2顿2の绍介をもとに?
Jun Okumura
?
机械学习を用いた奥别产上の产学连携関连文书の抽出
机械学习を用いた奥别产上の产学连携関连文书の抽出机械学习を用いた奥别产上の产学连携関连文书の抽出
机械学习を用いた奥别产上の产学连携関连文书の抽出
National Institute of Informatics
?
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
オープンワールド認識 (第34回全脳アーキテクチャ若手の会 勉強会)
Takuma Yagi
?
第64回情報科学談話会(岡﨑 直観 准教授)
第64回情報科学談話会(岡﨑 直観 准教授) 第64回情報科学談話会(岡﨑 直観 准教授)
第64回情報科学談話会(岡﨑 直観 准教授)
gsis gsis
?
Pythonて?体験する深層学習 5章
Pythonて?体験する深層学習 5章Pythonて?体験する深層学習 5章
Pythonて?体験する深層学習 5章
孝好 飯塚
?
机械学习と深层学习の数理
机械学习と深层学习の数理机械学习と深层学习の数理
机械学习と深层学习の数理
Ryo Nakamura
?
Clustering _ishii_2014__ch10
Clustering  _ishii_2014__ch10Clustering  _ishii_2014__ch10
Clustering _ishii_2014__ch10
Kota Mori
?
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用 2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
2015年9月18日 (GTC Japan 2015) 深層学習フレームワークChainerの導入と化合物活性予測への応用
Kenta Oono
?
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)2値化CNN on FPGAでGPUとガチンコバトル(公開版)
2値化CNN on FPGAでGPUとガチンコバトル(公開版)
Hiroki Nakahara
?
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
2値ディープニューラルネットワークと組込み機器への応用: 開発中のツール紹介
Hiroki Nakahara
?

Viewers also liked (20)

Vanishing Component Analysisの試作(補足)
Vanishing Component Analysisの試作(補足)Vanishing Component Analysisの試作(補足)
Vanishing Component Analysisの試作(補足)
Hiroshi Tsukahara
?
Notes on the low rank matrix approximation of kernel
Notes on the low rank matrix approximation of kernelNotes on the low rank matrix approximation of kernel
Notes on the low rank matrix approximation of kernel
Hiroshi Tsukahara
?
DSIRNLP06 Nested Pitman-Yor Language Model
DSIRNLP06 Nested Pitman-Yor Language ModelDSIRNLP06 Nested Pitman-Yor Language Model
DSIRNLP06 Nested Pitman-Yor Language Model
Kei Uchiumi
?
Vanishing Component Analysisの試作と簡単な実験
Vanishing Component Analysisの試作と簡単な実験Vanishing Component Analysisの試作と簡単な実験
Vanishing Component Analysisの試作と簡単な実験
Hiroshi Tsukahara
?
Pylm public
Pylm publicPylm public
Pylm public
Kei Uchiumi
?
Dsirnlp#7
Dsirnlp#7Dsirnlp#7
Dsirnlp#7
Kei Uchiumi
?
Sparse Isotropic Hashing
Sparse Isotropic HashingSparse Isotropic Hashing
Sparse Isotropic Hashing
Ikuro Sato
?
Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説
Yusuke Sekikawa
?
FLAT CAM: Replacing Lenses with Masks and Computationの解説
FLAT CAM: Replacing Lenses with Masks and Computationの解説FLAT CAM: Replacing Lenses with Masks and Computationの解説
FLAT CAM: Replacing Lenses with Masks and Computationの解説
Yusuke Sekikawa
?
Deep Learning Chapter12
Deep Learning Chapter12Deep Learning Chapter12
Deep Learning Chapter12
Kei Uchiumi
?
Halide, Darkroom - 並列化のためのソフトウェア?研究
Halide, Darkroom - 並列化のためのソフトウェア?研究Halide, Darkroom - 並列化のためのソフトウェア?研究
Halide, Darkroom - 並列化のためのソフトウェア?研究
Yuichi Yoshida
?
RNNLM
RNNLMRNNLM
RNNLM
Kei Uchiumi
?
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)
Keisuke Uto
?
Nl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov ModelNl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov Model
Kei Uchiumi
?
ディープラーニングの车载応用に向けて
ディープラーニングの车载応用に向けてディープラーニングの车载応用に向けて
ディープラーニングの车载応用に向けて
Ikuro Sato
?
Windows Store アプリをuniversal にして申請する手順
Windows Store アプリをuniversal にして申請する手順Windows Store アプリをuniversal にして申請する手順
Windows Store アプリをuniversal にして申請する手順
Osamu Masutani
?
Sigir2013 retrieval models-and_ranking_i_pub
Sigir2013 retrieval models-and_ranking_i_pubSigir2013 retrieval models-and_ranking_i_pub
Sigir2013 retrieval models-and_ranking_i_pub
Kei Uchiumi
?
Stochastic Process Overview (hypothesis)
Stochastic Process Overview (hypothesis)Stochastic Process Overview (hypothesis)
Stochastic Process Overview (hypothesis)
Yoshiaki Sakakura
?
Vanishing Component Analysisの試作(補足)
Vanishing Component Analysisの試作(補足)Vanishing Component Analysisの試作(補足)
Vanishing Component Analysisの試作(補足)
Hiroshi Tsukahara
?
Notes on the low rank matrix approximation of kernel
Notes on the low rank matrix approximation of kernelNotes on the low rank matrix approximation of kernel
Notes on the low rank matrix approximation of kernel
Hiroshi Tsukahara
?
DSIRNLP06 Nested Pitman-Yor Language Model
DSIRNLP06 Nested Pitman-Yor Language ModelDSIRNLP06 Nested Pitman-Yor Language Model
DSIRNLP06 Nested Pitman-Yor Language Model
Kei Uchiumi
?
Vanishing Component Analysisの試作と簡単な実験
Vanishing Component Analysisの試作と簡単な実験Vanishing Component Analysisの試作と簡単な実験
Vanishing Component Analysisの試作と簡単な実験
Hiroshi Tsukahara
?
Sparse Isotropic Hashing
Sparse Isotropic HashingSparse Isotropic Hashing
Sparse Isotropic Hashing
Ikuro Sato
?
Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説Go-ICP: グローバル最適(Globally optimal) なICPの解説
Go-ICP: グローバル最適(Globally optimal) なICPの解説
Yusuke Sekikawa
?
FLAT CAM: Replacing Lenses with Masks and Computationの解説
FLAT CAM: Replacing Lenses with Masks and Computationの解説FLAT CAM: Replacing Lenses with Masks and Computationの解説
FLAT CAM: Replacing Lenses with Masks and Computationの解説
Yusuke Sekikawa
?
Deep Learning Chapter12
Deep Learning Chapter12Deep Learning Chapter12
Deep Learning Chapter12
Kei Uchiumi
?
Halide, Darkroom - 並列化のためのソフトウェア?研究
Halide, Darkroom - 並列化のためのソフトウェア?研究Halide, Darkroom - 並列化のためのソフトウェア?研究
Halide, Darkroom - 並列化のためのソフトウェア?研究
Yuichi Yoshida
?
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)
論文紹介:Practical bayesian optimization of machine learning algorithms(nips2012)
Keisuke Uto
?
Nl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov ModelNl220 Pitman-Yor Hidden Semi Markov Model
Nl220 Pitman-Yor Hidden Semi Markov Model
Kei Uchiumi
?
ディープラーニングの车载応用に向けて
ディープラーニングの车载応用に向けてディープラーニングの车载応用に向けて
ディープラーニングの车载応用に向けて
Ikuro Sato
?
Windows Store アプリをuniversal にして申請する手順
Windows Store アプリをuniversal にして申請する手順Windows Store アプリをuniversal にして申請する手順
Windows Store アプリをuniversal にして申請する手順
Osamu Masutani
?
Sigir2013 retrieval models-and_ranking_i_pub
Sigir2013 retrieval models-and_ranking_i_pubSigir2013 retrieval models-and_ranking_i_pub
Sigir2013 retrieval models-and_ranking_i_pub
Kei Uchiumi
?
Stochastic Process Overview (hypothesis)
Stochastic Process Overview (hypothesis)Stochastic Process Overview (hypothesis)
Stochastic Process Overview (hypothesis)
Yoshiaki Sakakura
?

Similar to Information extraction 1 (20)

量子アニーリングを用いたクラスタ分析 (QIT32)
量子アニーリングを用いたクラスタ分析 (QIT32)量子アニーリングを用いたクラスタ分析 (QIT32)
量子アニーリングを用いたクラスタ分析 (QIT32)
Shu Tanaka
?
R seminar on igraph
R seminar on igraphR seminar on igraph
R seminar on igraph
Kazuhiro Takemoto
?
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
Deep Learning JP
?
NSDI '16 Reading: Flexible Networks Session
NSDI '16 Reading: Flexible Networks SessionNSDI '16 Reading: Flexible Networks Session
NSDI '16 Reading: Flexible Networks Session
Daisuke Kotani
?
Hayashi tutorial ne2017
Hayashi tutorial ne2017Hayashi tutorial ne2017
Hayashi tutorial ne2017
yukisachi
?
Proof summit2014mizar
Proof summit2014mizarProof summit2014mizar
Proof summit2014mizar
Alcor80UMa
?
最适输送入门
最适输送入门最适输送入门
最适输送入门
joisino
?
4thNLPDL
4thNLPDL4thNLPDL
4thNLPDL
Sho Takase
?
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
Daiki Shimada
?
[part 2]ナレッジグラフ推論チャレンジ?Tech Live!
[part 2]ナレッジグラフ推論チャレンジ?Tech Live![part 2]ナレッジグラフ推論チャレンジ?Tech Live!
[part 2]ナレッジグラフ推論チャレンジ?Tech Live!
KnowledgeGraph
?
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvq
sleipnir002
?
骋笔鲍上での狈尝笔向け深层学习の実装について
骋笔鲍上での狈尝笔向け深层学习の実装について骋笔鲍上での狈尝笔向け深层学习の実装について
骋笔鲍上での狈尝笔向け深层学习の実装について
Yuya Unno
?
東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering
Hiroshi Ono
?
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9
Yuya Unno
?
今さら闻けない贬补诲辞辞辫勉强会第2回 セントラルソフト株式会社(20120228)
今さら闻けない贬补诲辞辞辫勉强会第2回 セントラルソフト株式会社(20120228)今さら闻けない贬补诲辞辞辫勉强会第2回 セントラルソフト株式会社(20120228)
今さら闻けない贬补诲辞辞辫勉强会第2回 セントラルソフト株式会社(20120228)
YoheiOkuyama
?
dont_count_predict_in_acl2014
dont_count_predict_in_acl2014dont_count_predict_in_acl2014
dont_count_predict_in_acl2014
Sho Takase
?
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
Deep Learning JP
?
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Koji Matsuda
?
遺伝的アルゴリズム (Genetic Algorithm)を始めよう! 【簡略版】
遺伝的アルゴリズム(Genetic Algorithm)を始めよう! 【簡略版】遺伝的アルゴリズム(Genetic Algorithm)を始めよう! 【簡略版】
遺伝的アルゴリズム (Genetic Algorithm)を始めよう! 【簡略版】
Kazuhide Okamura
?
量子アニーリングを用いたクラスタ分析 (QIT32)
量子アニーリングを用いたクラスタ分析 (QIT32)量子アニーリングを用いたクラスタ分析 (QIT32)
量子アニーリングを用いたクラスタ分析 (QIT32)
Shu Tanaka
?
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
[DL輪読会]Factorized Variational Autoencoders for Modeling Audience Reactions to...
Deep Learning JP
?
NSDI '16 Reading: Flexible Networks Session
NSDI '16 Reading: Flexible Networks SessionNSDI '16 Reading: Flexible Networks Session
NSDI '16 Reading: Flexible Networks Session
Daisuke Kotani
?
Hayashi tutorial ne2017
Hayashi tutorial ne2017Hayashi tutorial ne2017
Hayashi tutorial ne2017
yukisachi
?
Proof summit2014mizar
Proof summit2014mizarProof summit2014mizar
Proof summit2014mizar
Alcor80UMa
?
最适输送入门
最适输送入门最适输送入门
最适输送入门
joisino
?
Convolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をするConvolutional Neural Netwoks で自然言語処理をする
Convolutional Neural Netwoks で自然言語処理をする
Daiki Shimada
?
[part 2]ナレッジグラフ推論チャレンジ?Tech Live!
[part 2]ナレッジグラフ推論チャレンジ?Tech Live![part 2]ナレッジグラフ推論チャレンジ?Tech Live!
[part 2]ナレッジグラフ推論チャレンジ?Tech Live!
KnowledgeGraph
?
パターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvqパターン認識 08 09 k-近傍法 lvq
パターン認識 08 09 k-近傍法 lvq
sleipnir002
?
骋笔鲍上での狈尝笔向け深层学习の実装について
骋笔鲍上での狈尝笔向け深层学习の実装について骋笔鲍上での狈尝笔向け深层学习の実装について
骋笔鲍上での狈尝笔向け深层学习の実装について
Yuya Unno
?
東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering
Hiroshi Ono
?
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9
闯耻产补迟耻蝉のリアルタイム分散レコメンデーション蔼罢辞办测辞狈尝笔#9
Yuya Unno
?
今さら闻けない贬补诲辞辞辫勉强会第2回 セントラルソフト株式会社(20120228)
今さら闻けない贬补诲辞辞辫勉强会第2回 セントラルソフト株式会社(20120228)今さら闻けない贬补诲辞辞辫勉强会第2回 セントラルソフト株式会社(20120228)
今さら闻けない贬补诲辞辞辫勉强会第2回 セントラルソフト株式会社(20120228)
YoheiOkuyama
?
dont_count_predict_in_acl2014
dont_count_predict_in_acl2014dont_count_predict_in_acl2014
dont_count_predict_in_acl2014
Sho Takase
?
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
[DL輪読会]Peeking into the Future: Predicting Future Person Activities and Locat...
Deep Learning JP
?
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Word Sense Induction & Disambiguaon Using Hierarchical Random Graphs (EMNLP2010)
Koji Matsuda
?
遺伝的アルゴリズム (Genetic Algorithm)を始めよう! 【簡略版】
遺伝的アルゴリズム(Genetic Algorithm)を始めよう! 【簡略版】遺伝的アルゴリズム(Genetic Algorithm)を始めよう! 【簡略版】
遺伝的アルゴリズム (Genetic Algorithm)を始めよう! 【簡略版】
Kazuhide Okamura
?

Information extraction 1

  • 1. 【 WWW2012 勉強会】 Session 30: Information Extraction 担当: 塚原裕史(デンソーアイティーラボラトリ)
  • 2. 論文リスト ? "Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions", ? Kavita Ganesan, ChengXiang Zhai, Evelyne Viegas ? 要旨 : ? 人が読んで分かる要約文生成 ? タグ付けや教師データを必要としない ? "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce", ? Ke Zhai, Jordan Boyd-Graber, Nima Asadi, Mohamad Alkhouja ? 要旨 : ? MapReduce 形式による変分ベイズ法を用いた LDA 計算法 ? Callapsed Gibbs Sampling よりもスケールアウトできる 2 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 3. Paper 1 "Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",   Kavita Ganesan et. al. ?モチベーション ? ブログやニュース記事として、多くの評判情報が集まっており、 これらの評判を文章として段階的に要約し、内容を理解できるよ うにしたい。 ? “micropinion” と呼ぶ ? これまでの評判情報要約では、元の文章とは異なる構造化された 簡潔な情報に変換されていたので、上記のようなことができなか った: ? 単純な極性判別: “ positive” or “negative” ? カテゴリごとの評価値 :   buttery life: 1 star, screen: 3.5 star etc. ? Key words or phrases extraction :  buttery, life, screen, short, clear, etc. 3 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 4. Paper 1 "Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",   Kavita Ganesan et. al. ?Micropinion の事例 ( 制約: less than 10 words) ? MP3 Player Y: (8 words) ? Very short battery life. Big and clear screen. ? Restaurant X: (9 words) ? Good service. Delicious soup dishes. Very noisy at nights. ?ポイント ? 可読な文への要約 ? 最大単語数を設定可能 4 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 5. Paper 1 "Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",   Kavita Ganesan et. al. ?方法 ? フレーズの代表性と可読性の指標を設計し、それらの和を最大化 するフレーズ(単語の組合せ)の組みを検索する。(最適化問題 ) ?代表性 ? フレーズ内の各単語のローカル相互情報量の平均値 ? ローカル相互情報量: コンテキストウインドウ内での補正相互情報量の 平均値 ? 補正相互情報量: コンテキストウインドウ内で共起し易い単語間で値が 大きくなるように、ヒューリスティックな補正を入れたもの。 ? 通常の相互情報量では、頻出しない単語間で値が大きくなり、代表性という観点 では問題がある。 ?可読性 ? N-gram 言語モデルによる対数尤度の平均値 5 ? Microsoft の trigram 言語モデル使用 担当:塚原裕史(デンソーITラボ Session 30: Information Extraction ラトリ)
  • 6. Paper 1 "Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",   Kavita Ganesan et. al. ?最適化手順 ? 1.シードとなるバイグラム生成 ? 2. N グラム候補生成 ? 3.候補 N グラムから候補フレーズ生成 ? 4. Depth-first search による Micropinion 決定 フレーズ m スコア w1 w2 w4 w8 S rep ( m ) + S read ( m ) 候補Nグラム w1 w2 w4 w5 w6 w8 シードバイグラム w1 w2 w3 w4 w5 w6 w7 w8 6 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 7. Paper 1 "Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",   Kavita Ganesan et. al. ?評価 ? データセット ? CNET における製品レビューデータ ? 定量的評価指標 ? ROUGE ? 定性的評価指標 ? Gramaticality ? Non-redundancy ? Informativeness ? ベースライン ( 従来手法 ) ? TF-IDF ベース ? KEA ? Opinosis 7 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 8. Paper 1 "Micropinion Generation: An Unsupervised Approach to Generating Ultra-Concise Summaries of Opinions",   Kavita Ganesan et. al. ?結論 ? 主要な提案: ? 代表性と可読性に基づく最適化問題による定式化 ? 上記最適化問題の高速な近似解探索手法を提案 ? 主要な性質: ? 従来手法にくらべて、可読性の高い要約文を生成できる ? モデル的に有利な点: ? 教師なし学習 → 低コスト ? 計算量が小さい → 高速 ? 形態素解析や構文解析不要 → 多言語への拡張性 8 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 9. Paper 2 "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",   Ke Zhai et. al. ? モチベーション ? LDA の計算手法として Collapsed Gibbs Sampling が良く使われている ? 実装が簡単 ? Collapsed Gibbs Sampling は、並列化してもパフォーマンスが出ない ? ノード全体で共有する状態があるため(実際には定期的に同期を取りながら計算) ? 明確な収束判定基準がない ? Collapsed Gibbs Sampling での計算 ? (#topics in a document) * (#words in a topic across all documents) この部分で同期が必要となり並列化の効率に影響 9 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 10. Paper 2 "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",   Ke Zhai et. al. ? 方法 ? 変分ベイズ法による LDA 計算を MapReduce の形式へ並列化 ? 変分ベイズ法における反復更新処理 φ v(,d ) ∝ Eq [ β v ,k ]e Ψ ( γ k ) k 文書ごとの処理 Map V γ d ,k = α k + ∑ φ v(,d ) k v =1 λv ,k = η v ,k + ∑ ( wv( d )φv(.dk ) ) C 文書全体での処理 Reduce d =1 α new = α old ? H ?1 ( α old ) g ( α old ) モデル全体の制御 Driver 10 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 11. Paper 2 "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",   Ke Zhai et. al. ? MapReduce での処理の流れ Hyperparameters Mapper (α k , λv ,k ) t → (α k , λv ,k ) t +1 文書 d (γ d ,k ) ? ? ? K ?? , φ v(,d ) → ? γ d , k , φ v(,d ) , Ψ ( γ d , k ) ? Ψ ? ∑ γ d , k ? ? ? Reducer t ? k =1 ? ?t +1 k k ? (η , {φ }) ? ? K ?? C v ,k (d ) → ? λv ,k , ∑ Ψ (γ d ,k ) ? Ψ? ∑ γ d ,k ? ? ? ? t ? k =1 ? ?t +1 v ,k ? d =1 (γ ) ? ? K ?? Driver d d ,k , φ v(,d ) → ? γ d , k , φ v(,d ) , Ψ ( γ d , k ) ? Ψ ? ∑ γ d , k ? ? k t ? ? k ? k =1 ? ? ?t +1 (η , {φ }) v ,k (d ) v ,k t ? ? ? C d =1 ? K ? k =1 ?? → ? λv ,k , ∑ Ψ (γ d ,k ) ? Ψ? ∑ γ d ,k ? ? ? ? ?t +1 (α k ) t → (α k ) t +1 d (γ d ,k ) ? ? K ?? , φ v(,d ) → ? γ d , k , φ v(,d ) , Ψ ( γ d , k ) ? Ψ ? ∑ γ d , k ? ? ? ? t ? k =1 ? ?t +1 k k ? (η , {φ }) ? ? K ?? C v ,k (d ) → ? λv ,k , ∑ Ψ (γ d ,k ) ? Ψ? ∑ γ d ,k ? ? ? ? t ? k =1 ? ?t +1 v ,k ? d =1 Test Convergence d (γ ) ? ? ? K ?? , φ v(,d ) → ? γ d , k , φ v(,d ) , Ψ ( γ d , k ) ? Ψ ? ∑ γ d , k ? ? ? (Likelihood Computation) d ,k t ? k =1 ? ?t +1 k k ? partitioner 11 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)
  • 12. Paper 2 "A Flexible Large Scale Topic Modeling Package using Variational Inference in MapReduce",   Ke Zhai et. al. ? 結論 ? 従来実装 (Mahout) に比べて、処理速度?事後分布の近似精度の 両面で、非常に良く改善されている。 (論文から引用) 事 L = Eq [ log( p ( D Z ) p ( Z Θ ) ) ] ? Eq [ log q( Z ) ] 後 分 布 変分ベイズでは、この量を最大化する へ の 下 限 学習時間 ? Remark ? Collapsed Gibbs Sampling の並列化に関しては Mallet というラ イブラリがあるが、それとの比較がないので、変分ベイズ法の方 が本当に良いと言って良いのか、実際にどれくらいの差があるの か気になる。 12 Session 30: Information Extraction 担当:塚原裕史(デンソーITラボ ラトリ)