2018年3月のニューロコンピューティング研究会にて発表.確率行列分解のBayes汎化誤差に関する理論的な不等式について数値実験を試みたかったが,そもそもBayes推定をすることが困難な問題であった:パラメータが単体(simplex)上に存在するために,事後分布からサンプリングを行うことが難しい.そこで本研究ではハミルトニアンモンテカルロ法という効率的なMCMC法を用いてBayes推定をしてみた.理論値と比較し,確率行列分解に対するハミルトニアンモンテカルロ法の有効性を検証した.in Japanese
This document proposes a unified framework for approximating the optimal key estimation of stream ciphers using probabilistic inference. It formulates the key estimation problem as determining the secret key that maximizes the joint probability based on the observed keystream. An approximation algorithm called the sum-product algorithm is used to efficiently compute approximate marginal probabilities on a factor graph representing the cipher structure. Preprocessing techniques can reduce the complexity of the sum-product algorithm when applied to ciphers using linear feedback shift registers.
This document analyzes the asymptotic properties of expected cumulative logarithmic loss in Bayesian estimation when models are nested and when there is misspecification. The main theorem states that if the true distribution does not belong to the model class, the asymptotic loss per symbol goes to the Kullback-Leibler divergence between the true and model distributions, rather than 0. If the true distribution does belong to the model class, the results reduce to previous studies. The proof is separated into two parts and relies on a lemma showing posterior concentration at the true model.
This document proposes a linear programming (LP) based approach for solving maximum a posteriori (MAP) estimation problems on factor graphs that contain multiple-degree non-indicator functions. It presents an existing LP method for problems with single-degree functions, then introduces a transformation to handle multiple-degree functions by introducing auxiliary variables. This allows applying the existing LP method. As an example, it applies this to maximum likelihood decoding for the Gaussian multiple access channel. Simulation results demonstrate the LP approach decodes correctly with polynomial complexity.
The document proposes a new method for document classification with small training data. It discusses previous methods that estimate parameters for prior distributions either using fixed values or estimating data. The new proposed method estimates parameters for prior distributions as a weighted combination of estimating data and training data. Experiments show the new method achieves higher accuracy than previous methods, especially with small training data sizes.
The document proposes a method to calculate the theoretical throughput limit of type-I hybrid selective-repeat ARQ with a finite receiver buffer using Markov decision processes. The authors model the problem as an MDP and develop an algorithm to compute the maximum expected utility and throughput limit by applying dynamic programming. Simulation results show the throughput of previous methods approaches the proposed theoretical limit with increasing buffer size.
The document proposes reducing the computational complexity of message passing algorithms like belief propagation (BP) and concave-convex procedure (CCCP) for multiuser detection in CDMA systems. It does this by changing the factor graph structure used to represent the detection problem from a fully connected graph (Factor Graph I) to a sparsely connected graph (Factor Graph II). Simulation results show the proposed CCCP detector for the new factor graph achieves near optimal performance with lower complexity than existing approaches.
9. Context Tree(CT)情報源 (1/4) パラメトリックな情報源モデルクラス m :CT情報源モデル θ ( m ) : m の下でのパラメータ シンボル x t の生起確率: P ( x t | x t - 1 , θ ( m ), m ) 過去のシンボル系列 x t - 1 から x t の 生起確率が決まる情報源 モデルが 一意に定まる
10. CT情報源 (2/4) s i :直前シンボル系列が??? i であることを表す状態 モデル m :複数の状態 s で定義 例) m 1 = { s 00 , s 10 , s 1 } 直前のシンボル系列 x t - 1 により時点 t の状態 s ( x t - 1 ) が一意に定まる 状態 s が持つパラメータ θ ( s ) により,シンボルの生起確率 P ( x t | x t - 1 ,θ( s ), s ) が定まる P ( x t | x t - 1 ,θ( m ), m ) = P ( x t | x t - 1 ,θ( s ( x t - 1 )), s ( x t - 1 )) (3)
11. CT情報源 (3/4) CT 情報源は木モデルで表現可能 枝:情報シンボル x ノード:状態 s 例1 状態 { s 00 , s 10 , s 1 } を持つCT情報源 m 1 x t - 1 を表す x t - 2 を表す 0 0 s 1 1 1 s 10 s 00
12. CT情報源 (4/4) x t - 1 =??? 1 1 0 の場合 シンボル x t - 1 = 0 シンボル x t - 2 = 1 例1 状態 { s 00 , s 10 , s 1 } を持つCT情報源 m 1 x t - 1 を表す x t - 2 を表す 0 0 s 1 1 1 s 10 s 00 状態は s 10
13. Context Tree (1/2) Context Tree とは CT 情報源モデルが未知である場合にシンボル系列から状態の候補を求めるための木モデル 例)次数の最大値が 2 の CT 情報源モデルクラス (次数:系列 x t - 1 を何文字遡れば状態が定まるか) m 1 m 2 m 3 m 4 m 5 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
14. Context Tree (2/2) Context Treeとは CT情報源モデルが未知である場合にシンボル系列から状態の候補を求めるための木モデル 例)次数の最大値が 2 の Context Tree 0 1 0 1 0 1 x t - 1 =??? 1 0 1 の場合, 時点 t で考えられる状態 S t は S t = { s λ , s 1 , s 01 } s λ s 01 s 1
15. CT情報源に対するベイズ符号(1/7) 問題設定 既知:情報源モデルが CT 情報源 未知:情報源モデル m ,パラメータ θ( m ) 仮定:モデルの事前分布 P ( m ) パラメータの事前分布 P (θ( m )) 目的:符号化確率 P C ( x n ) の計算 ベイズ 符号器 算術 符号器 符号語 符号化確率 P C ( x n ) シンボル系列 x n 事前分布 P ( m ) , P(θ( m )| m ) 事後分布 P ( m | x n ) , P (θ( m )| m , x n )
16. CT情報源に対するベイズ符号(2/7) 逐次型ベイズ符号 時点 t ごとにシンボル x t の符号化確率 P C ( x t | x t - 1 ) の計算 同時に事後分布 P ( m | x t ) , P (θ( m ), m | x t ) の計算 -> 次の時点 ( t + 1) の事前分布として利用 ベイズ 符号器 算術 符号器 符号語 符号化確率 P C ( x t | x t - 1 ) シンボル x t 事前分布 事後分布 次の時点 (t + 1) の事前分布
19. CT情報源に対するベイズ符号 Context Tree を利用して符号化確率を計算 [ 松嶋 95] 問題点: 時点 t ごとに,全状態 s の P ( s | x t - 1 ) を計算が必要 ( 5/7 ) (5) 計算量削減 ??? 31 15 7 状態数 ??? ??? 677 4 26 3 5 2 モデル数 最大次数
20. CT情報源に対するベイズ符号 P ( s ) の代わりに下式の q ( s ) を利用 [ 松嶋 95] q ( s ) の事後確率の計算でも, x t - 1 に対応する状態のみで OK ↓ 最大次数 D に対して O ( D 2 ) の計算量 ※ D を設定しない場合でも O ( n 2 ) の計算量 0 1 0 1 0 1 例) x t - 1 =??? 10 なら ( 6/7 ) s (10) s (0) s (λ)
23. 本研究のアプローチ(1/5) モデルの事前分布 必要メモリ量 ∝ Context Tree のノード数 逐次型ベイズ符号化確率 P C ( x t | x t - 1 ) 計算時, P ( s ) の値が小さい状態 s small に関する和計算 P ( s small ) = 0 とみなしても符号化確率に微小の差 P ( s small ) = 0 とする (状態がないとみなす) ??? (6)
25. 事前分布設定の流れ 事後分布 P ( m | x , Y ) , P (θ( m )| x , Y , m ) ベイズ 符号器 符号化確率 P C ( Y ) 学習対象 データ セット Y 無情報事前分布 P ( m ) , P (θ( m )| m ) 学習済み事後分布 P ( m | Y ) , P (θ( m )| Y , m ) ベイズ 符号器 算術 符号器 符号語 符号化確率 P C ( x | Y ) 圧縮対象 データ x 事前分布と して利用 本研究のアプローチ( 3 / 5 )
26. 本研究のアプローチ(4/5) モデルの事前分布の調整法の流れ 学習 データ y 2 y k ??? 事後分布 学習済み 事前分布 P ( m | Y ) P ( m | y 2 ) P ( m | y k ) y 1 P ( m | y 1 ) ??? ベイズ符号化 ノード削減① 事後分布の合成 ノード削減② q ( s | y i ) > α より 次数の高いノード P ( s | Y ) < β と なる葉ノード