狠狠撸

狠狠撸Share a Scribd company logo
死にたくない 
@joisino_
囚人の帽子の问题とハミング符号 
@joisino_
問題 
囚人がN(= 2n?1 
)人いる 
囚人は白帽か赤帽をかぶっている 
自分の帽子の色は分からないが、他人の帽子の 
色は全てわかる 
各人は同時に自分の色を言うか何も言わない
問題 
● 1人以上が発言し、発言した人全員が正解→勝 
利 
● 全員沈黙、または一人でも間違う→死 
生存確率が高くなるような作戦を求める
例 
赤白 
→勝利
例 
白白赤 
→死
N = 3 のとき
方針 : 全列挙
方針 : 全列挙 
● 囚人から見たパターンは2通り(他の人の色が同 
じ、異なる) 
● 作戦は全6通り 
● この作戦を帽子の全パターンについて試す
方針 : 全列挙 
帽子の色の全パターンは以下の8通り 
● (白、白、白) 
● (白、白、赤) 
● (白、赤、白) 
● (白、赤、赤) 
● (赤、白、白) 
● (赤、白、赤) 
● (赤、赤、白) 
● (赤、赤、赤)
答え 
他の人が同じ色のときは違う色を言う。 
違う色のときは黙る
答え 
赤赤赤 
→死 
勝利:0 
死:1
答え 
→勝利 
赤 
勝利:1 
死:1
答え 
赤 
→勝利 
勝利:2 
死:1
答え 
→勝利 
白 
勝利:3 
死:1
答え 
→勝利 
赤 
勝利:4 
死:1
答え 
白 
→勝利 
勝利:5 
死:1
答え 
→勝利 
白 
勝利:6 
死:1
答え 
白白白 
→死 
勝利:6 
死:2
答え 
8パターン中6パターン勝利(75パーセント) 
何故良いか? 
→各人が当てられる確率は50パーセントだ 
が、皆が間違うパターンが集中している
答え 
白白白 
→死
N = 7 のとき
N = 7 のとき 
帽子のパターンは128通り、作戦のパターンは 
18通り 
囚人にコンピュータは与えられない 
– 全列挙は難しい
方針1 : 妥協
方針1 : 妥協 
3人選んでN = 3のときの方針をとる 
他の4人は黙らせる
方針1 : 妥協 
赤
方針1 : 妥協 
勝利確率はN = 3のときと同じで75パーセント 
利点 : 楽 
難点 : 命を粗末にするのはダメ
方針2 : ハミング符号
2元ハミング符号 
H7 
2元ハミング符号 H7 
とは? 
誤り訂正符号の1つ 
– 送りたい情報にノイズが混入しても訂正できるよう 
な符号 
3つの集合A,B,Cに対するベン図を使う 
それぞれの集合は1,10,100(2進数)を表す
2元ハミング符号 
B 
C 
A 
H7 
u1 
u2 u3 
u6 
u4 
u5 
u7
2元ハミング符号 
H7 
使い方 
4ビットの情報( a1, a2, a3, a4 
)を送る 
ビットをベン図の u3 , u5 , u6 , u7 
に割り当てる 
それぞれの集合に属するビットの和が0になるよう 
に残りのビットを決める
2元ハミング符号 
例) = 1 , = 0 , = 1 , = 1 
B 
C 
0 1 
1 
0 1 
0 
1 
A 
符号) 0110011 
H7 
a1 a2 a3 a4
2元ハミング符号 
符号) 0110011 が 符号) 0100011 になってしまった 
B 
C 
0 1 
0 
0 1 
0 
1 
A 
H7
2元ハミング符号 
B 
H7 
C 
0 1 
0 
0 1 
0 
1 
A 
A : 0 + 0 + 1 + 0 = 1(おかしい)
2元ハミング符号 
B 
H7 
C 
0 1 
0 
0 1 
0 
1 
A 
B : 1 + 1 + 1 + 0 = 1(おかしい)
2元ハミング符号 
B 
H7 
C 
0 1 
0 
0 1 
0 
1 
A 
A : 0 + 0 + 1 + 1 = 0(ただしい)
2元ハミング符号 
A : おかしい 
B : おかしい 
C : ただしい 
H7 
→間違いはA , Bに属していて、Cに属していない 
→間違いは 
u3
2元ハミング符号 
H7 
誤り訂正符号としての問題点 
2つ以上の間違いが混入したら修正できない 
符号) 0110011 が 符号) 0100111 になってしまった 
→0100101と修正してしまう
答え 
囚人に番号をつけておく 
白帽を0,赤帽を1としてビット列をつくる 
● 自分のビットを決めてハミング符号語にできるな 
ら、ハミング符号語にならないように帽子の色を言 
う 
● ハミング符号語にできないなら何も言わない
答え 
全員何も言わない 
– 任意の7ビット列は1ビット変更してハミング符号語にで 
きるのであり得ない 
間違える 
– 帽子のビット列がハミング符号語のとき 
– 4ビットの送る情報それぞれに1つハミング符号語があ 
るので16通り 
全員正解する 
– それ以外の128-16=112通り 
勝利確率は 112/128 (87.5パーセント)
ハミング符号作戦が最適である証明 
ある作戦においてその作戦で勝利したとき、1人 
以上が帽子の色を発言している 
赤
ハミング符号作戦が最適である証明 
もし、他の人の帽子の色が同じで、自分の帽子 
の色が変わった場合、死 
(自分では変わっても区別できないから) 
赤
ハミング符号作戦が最適である証明 
つまり、作戦が成功する帽子のビット列に隣接 
するビット列で、失敗するビット列が存在する 
成功したビット列で、発言した1人のビットを変更 
すると構成できる 
(隣接: 0110011 と 0100011 など)
ハミング符号作戦が最適である証明 
失敗するビット列の集合をFとすると、Fの元xを 
中心とする半径1の球B={y∈ Z2 
7 
| yはxに隣接し 
ているまたはy = x}の和は全ての7ビット列を覆 
う必要がある 
覆われていない元zがあるとすると、zのとき作 
戦が成功し、zに隣接する元で失敗する元が存 
在しないことになるから矛盾
ハミング符号作戦が最適である証明 
|B| = 8 なので 
8|F| ≧ 2^7 
|F| ≧ 16 
失敗するビット列は16個以上 
よって H 7 による作戦が最適となる
一般( N = 2 n )の場合?1
一般( N=2n?1 
)の場合 
2元ハミング符号による作戦が最適であることが 
N = 7と同様に示せる(省略)
一般( N=2n?1 
)の場合 
H2n?1 2n?1?n 
2元ハミング符号 が伝える情報は 
ビットなので失敗するパターン(ハミング符号語 
の数)は 22n?1?n 
通り。 
帽子のパターンは 通り 
勝利確率は 
22n?1 
1?22n?1?n 
2n= N 
22n?1 =1? 1 
N+1 
Nが大きくなると勝利確率は限りなく1に近づく
まとめ 
人数が多いほうが死なない 
符号理論を知っている方が死なない
ご清聴ありがとうございました
Ad

Recommended

颁痴分野におけるサーベイ方法
颁痴分野におけるサーベイ方法
Hirokatsu Kataoka
?
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
Deep Learning JP
?
ベイズ统计学の概论的绍介
ベイズ统计学の概论的绍介
Naoki Hayashi
?
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
Yuya Unno
?
机械学习モデルの判断根拠の説明(痴别谤.2)
机械学习モデルの判断根拠の説明(痴别谤.2)
Satoshi Hara
?
これからの仮説検証?モデル评価
これからの仮説検証?モデル评価
daiki hojo
?
How Much Position Information Do Convolutional Neural Networks Encode?
How Much Position Information Do Convolutional Neural Networks Encode?
Kazuyuki Miyazawa
?
20190721 gaussian process
20190721 gaussian process
Yoichi Tokita
?
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
Ken'ichi Matsui
?
研究効率化Tips Ver.2
研究効率化Tips Ver.2
cvpaper. challenge
?
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
sleepy_yoshi
?
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Preferred Networks
?
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
?
モデル高速化百选
モデル高速化百选
Yusuke Uchida
?
研究室における研究?実装ノウハウの共有
研究室における研究?実装ノウハウの共有
Naoaki Okazaki
?
[DL輪読会]Attention is not Explanation (NAACL2019)
[DL輪読会]Attention is not Explanation (NAACL2019)
Deep Learning JP
?
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
?
工学系大学4年生のための论文の読み方
工学系大学4年生のための论文の読み方
ychtanaka
?
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集? ? 精度向上のための仕組み?倫理や社会性バイアス ?
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集? ? 精度向上のための仕組み?倫理や社会性バイアス ?
SSII
?
BlackBox モデルの説明性?解釈性技術の実装
BlackBox モデルの説明性?解釈性技術の実装
Deep Learning Lab(ディープラーニング?ラボ)
?
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
Kazuhide Okamura
?
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
Masashi Shibata
?
罢辞谤肠丑顿补迟补チュートリアル解説
罢辞谤肠丑顿补迟补チュートリアル解説
西岡 賢一郎
?
Group normalization
Group normalization
Ryutaro Yamauchi
?
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
?
科学と机械学习のあいだ:変量の设计?変换?选択?交互作用?线形性
科学と机械学习のあいだ:変量の设计?変换?选択?交互作用?线形性
Ichigaku Takigawa
?
ゼロから始める自然言語処理 【FIT2016チュートリアル】
ゼロから始める自然言語処理 【FIT2016チュートリアル】
Yuki Arase
?
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
Plot Hong
?
キャッシュオブリビアスアルゴリズム
キャッシュオブリビアスアルゴリズム
joisino
?
Metric Recovery from Unweighted k-NN Graphs
Metric Recovery from Unweighted k-NN Graphs
joisino
?

More Related Content

What's hot (20)

「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
Ken'ichi Matsui
?
研究効率化Tips Ver.2
研究効率化Tips Ver.2
cvpaper. challenge
?
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
sleepy_yoshi
?
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Preferred Networks
?
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
?
モデル高速化百选
モデル高速化百选
Yusuke Uchida
?
研究室における研究?実装ノウハウの共有
研究室における研究?実装ノウハウの共有
Naoaki Okazaki
?
[DL輪読会]Attention is not Explanation (NAACL2019)
[DL輪読会]Attention is not Explanation (NAACL2019)
Deep Learning JP
?
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
?
工学系大学4年生のための论文の読み方
工学系大学4年生のための论文の読み方
ychtanaka
?
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集? ? 精度向上のための仕組み?倫理や社会性バイアス ?
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集? ? 精度向上のための仕組み?倫理や社会性バイアス ?
SSII
?
BlackBox モデルの説明性?解釈性技術の実装
BlackBox モデルの説明性?解釈性技術の実装
Deep Learning Lab(ディープラーニング?ラボ)
?
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
Kazuhide Okamura
?
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
Masashi Shibata
?
罢辞谤肠丑顿补迟补チュートリアル解説
罢辞谤肠丑顿补迟补チュートリアル解説
西岡 賢一郎
?
Group normalization
Group normalization
Ryutaro Yamauchi
?
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
?
科学と机械学习のあいだ:変量の设计?変换?选択?交互作用?线形性
科学と机械学习のあいだ:変量の设计?変换?选択?交互作用?线形性
Ichigaku Takigawa
?
ゼロから始める自然言語処理 【FIT2016チュートリアル】
ゼロから始める自然言語処理 【FIT2016チュートリアル】
Yuki Arase
?
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
Plot Hong
?
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
「内積が見えると統計学も見える」第5回 プログラマのための数学勉強会 発表資料
Ken'ichi Matsui
?
DSIRNLP#1 ランキング学習ことはじめ
DSIRNLP#1 ランキング学習ことはじめ
sleepy_yoshi
?
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Preferred Networks
?
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
?
モデル高速化百选
モデル高速化百选
Yusuke Uchida
?
研究室における研究?実装ノウハウの共有
研究室における研究?実装ノウハウの共有
Naoaki Okazaki
?
[DL輪読会]Attention is not Explanation (NAACL2019)
[DL輪読会]Attention is not Explanation (NAACL2019)
Deep Learning JP
?
Bayesian Neural Networks : Survey
Bayesian Neural Networks : Survey
tmtm otm
?
工学系大学4年生のための论文の読み方
工学系大学4年生のための论文の読み方
ychtanaka
?
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集? ? 精度向上のための仕組み?倫理や社会性バイアス ?
SSII2021 [TS3] 機械学習のアノテーションにおける データ収集? ? 精度向上のための仕組み?倫理や社会性バイアス ?
SSII
?
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
遺伝的アルゴリズム (Genetic Algorithm)を始めよう!
Kazuhide Okamura
?
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
CMA-ESサンプラーによるハイパーパラメータ最適化 at Optuna Meetup #1
Masashi Shibata
?
罢辞谤肠丑顿补迟补チュートリアル解説
罢辞谤肠丑顿补迟补チュートリアル解説
西岡 賢一郎
?
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
?
科学と机械学习のあいだ:変量の设计?変换?选択?交互作用?线形性
科学と机械学习のあいだ:変量の设计?変换?选択?交互作用?线形性
Ichigaku Takigawa
?
ゼロから始める自然言語処理 【FIT2016チュートリアル】
ゼロから始める自然言語処理 【FIT2016チュートリアル】
Yuki Arase
?
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
Plot Hong
?

More from joisino (13)

キャッシュオブリビアスアルゴリズム
キャッシュオブリビアスアルゴリズム
joisino
?
Metric Recovery from Unweighted k-NN Graphs
Metric Recovery from Unweighted k-NN Graphs
joisino
?
Towards Principled User-side Recommender Systems
Towards Principled User-side Recommender Systems
joisino
?
CLEAR: A Fully User-side Image Search System
CLEAR: A Fully User-side Image Search System
joisino
?
Private Recommender Systems: How Can Users Build Their Own Fair Recommender S...
Private Recommender Systems: How Can Users Build Their Own Fair Recommender S...
joisino
?
An Introduction to Spectral Graph Theory
An Introduction to Spectral Graph Theory
joisino
?
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
?
最适输送入门
最适输送入门
joisino
?
ユーザーサイド情报検索システム
ユーザーサイド情报検索システム
joisino
?
最适输送の解き方
最适输送の解き方
joisino
?
Random Features Strengthen Graph Neural Networks
Random Features Strengthen Graph Neural Networks
joisino
?
Fast Unbalanced Optimal Transport on a Tree
Fast Unbalanced Optimal Transport on a Tree
joisino
?
グラフニューラルネットワークとグラフ组合せ问题
グラフニューラルネットワークとグラフ组合せ问题
joisino
?
キャッシュオブリビアスアルゴリズム
キャッシュオブリビアスアルゴリズム
joisino
?
Metric Recovery from Unweighted k-NN Graphs
Metric Recovery from Unweighted k-NN Graphs
joisino
?
Towards Principled User-side Recommender Systems
Towards Principled User-side Recommender Systems
joisino
?
CLEAR: A Fully User-side Image Search System
CLEAR: A Fully User-side Image Search System
joisino
?
Private Recommender Systems: How Can Users Build Their Own Fair Recommender S...
Private Recommender Systems: How Can Users Build Their Own Fair Recommender S...
joisino
?
An Introduction to Spectral Graph Theory
An Introduction to Spectral Graph Theory
joisino
?
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
?
最适输送入门
最适输送入门
joisino
?
ユーザーサイド情报検索システム
ユーザーサイド情报検索システム
joisino
?
最适输送の解き方
最适输送の解き方
joisino
?
Random Features Strengthen Graph Neural Networks
Random Features Strengthen Graph Neural Networks
joisino
?
Fast Unbalanced Optimal Transport on a Tree
Fast Unbalanced Optimal Transport on a Tree
joisino
?
グラフニューラルネットワークとグラフ组合せ问题
グラフニューラルネットワークとグラフ组合せ问题
joisino
?
Ad

死にたくない