狠狠撸

狠狠撸Share a Scribd company logo
Nearest Neighbor Search(NNS)
NGUYEN ANH TUAN
Bachelor 4th year
The Engineering Falcuty, the University of Tokyo
May 14, 2014
NGUYEN ANH TUAN Group study memo 1 / 45
自己紹介
2008 年?来日
2009 年~2012 年?兵庫県明石高専
卒論:「エッジ方向のヒストグラムを利用した電子透かしの手
法」(対象:文章画像)
2012 年?東大 2 年に編入
好きなプログラミング言語:C/C++、Java、最近は Ruby を
触っています。
NGUYEN ANH TUAN Group study memo 2 / 45
本日の流れ
1 概要
問題の定義
定義の解説
空間と距離
次元
課題:次元の呪縛
関連問題
k 近傍法
ボロノイ図
近似最近傍探索
2 アルゴリズム
線形探索
kd 木
Locality Sensitive Hashing
その他
3 最近の研究
Vector Quantization
Product Quantization
最近傍探索との関連
4 まとめ
NGUYEN ANH TUAN Group study memo 3 / 45
問題の定義
Nearest Neighbor Search(NNS problem)
D 次元ユークリッド空間 RD
において
ベクトル x =
(
x1, x2, . . . xD
)
距離 d
(
x, y
)
=
√
(x1 ? y1)2 + (x2 ? y2)2 + . . . + (xD ? yD)2
と表記すると、
入力:部分集合 Y ? RD
とベクトル x ∈ RD
出力:Y の要素の中で x と “一番近い”要素 NN(x)。
要するに、入力
(
Y, x
)
が与えられた時、
NN(x) = arg min
y∈Y
d(x, y) (1)
を求める問題
NGUYEN ANH TUAN Group study memo 4 / 45
解説
空間と距離
高次元と低次元
NGUYEN ANH TUAN Group study memo 5 / 45
ユークリッド空間内の距離
ユークリッド距離 → 直感的、通常の距離
→Minkowski 距離 dp(x, y) =
( D∑
i=1
|xi ? yi|p
)1
p
→ p = 2 の時、ユークリッド距離
NGUYEN ANH TUAN Group study memo 6 / 45
ユークリッド空間内の距離
ユークリッド距離 → 直感的、通常の距離
→Minkowski 距離 dp(x, y) =
( D∑
i=1
|xi ? yi|p
)1
p
→ p = 2 の時、ユークリッド距離
p = 1 の時、マンハッタン距離
dM (x, y) =
D∑
i=1
|xi ? yi| (2)
NGUYEN ANH TUAN Group study memo 6 / 45
ユークリッド空間内の距離
ユークリッド距離 → 直感的、通常の距離
→Minkowski 距離 dp(x, y) =
( D∑
i=1
|xi ? yi|p
)1
p
→ p = 2 の時、ユークリッド距離
p = 1 の時、マンハッタン距離
dM (x, y) =
D∑
i=1
|xi ? yi| (2)
Question: p > 2 の Minkowski 距離を利用するか?
NGUYEN ANH TUAN Group study memo 6 / 45
Hamming Space
Hamming Space:H = {0, 1} の時、すべての長さ D のビッ
ト列からなる空間を D 次元 Hamming Space HD
NGUYEN ANH TUAN Group study memo 7 / 45
Hamming Space
Hamming Space:H = {0, 1} の時、すべての長さ D のビッ
ト列からなる空間を D 次元 Hamming Space HD
Hamming 距離 → 二つのビット列の相違度
dH(x, y) = {i|xi ?= yi} (3)
NGUYEN ANH TUAN Group study memo 7 / 45
Hamming Space
Hamming Space:H = {0, 1} の時、すべての長さ D のビッ
ト列からなる空間を D 次元 Hamming Space HD
Hamming 距離 → 二つのビット列の相違度
dH(x, y) = {i|xi ?= yi} (3)
例: 00011 と 00101 の相違度が 2
NGUYEN ANH TUAN Group study memo 7 / 45
解説
空間と距離
高次元と低次元
NGUYEN ANH TUAN Group study memo 8 / 45
高次元と低次元
参考文献 1
定理 1(引用)
Let F is an arbitrary distribution of n points (from a database of N
uniformly distributed points), the distance function is an k-norm
Minkowski distance function inside an Euclidean space RD
. Therefore,
Ck ≤ lim
D→+∞
E
[
dmax ? dmin
D1/k?1/2
]
≤ (N ? 1)Ck (4)
, where dmax, dmin are the farthest and nearest distance from a point in F
to the query point, respectively. Ck is a constant value that depends on k.
1
A. Hinneburg et al , “What Is the Nearest Neighbor in High
Dimensional Spaces?”, Proceedings of the 26th International Conference
on Very Large Data Bases, pp.506-515, 2000
NGUYEN ANH TUAN Group study memo 9 / 45
高次元と低次元
k > 2 の Minkowski 距離 dk(x, y) を利用した時、
NGUYEN ANH TUAN Group study memo 10 / 45
高次元と低次元
k > 2 の Minkowski 距離 dk(x, y) を利用した時、
空間の次元 D を増加させると、
NGUYEN ANH TUAN Group study memo 10 / 45
高次元と低次元
k > 2 の Minkowski 距離 dk(x, y) を利用した時、
空間の次元 D を増加させると、
dmax ? dmin が 0 に収束
NGUYEN ANH TUAN Group study memo 10 / 45
高次元と低次元
k > 2 の Minkowski 距離 dk(x, y) を利用した時、
空間の次元 D を増加させると、
dmax ? dmin が 0 に収束
→ 高次元で k > 2 の Minkowski 距離の時、データセットの中の最
短距離と最長距離はほぼ一致してしまう
NGUYEN ANH TUAN Group study memo 10 / 45
次元の呪縛
ざっくり見ると、普通な問題
一番簡単な手法:線形探索 → 時間計算量 O(nD)
NGUYEN ANH TUAN Group study memo 11 / 45
次元の呪縛
ざっくり見ると、普通な問題
一番簡単な手法:線形探索 → 時間計算量 O(nD)
次元の一定の値を超えると、いかなるアルゴリズムでも線形
探索 (全探索) と等価である。
NGUYEN ANH TUAN Group study memo 11 / 45
関連問題
k 近傍法
ボロノイ図
近似最近傍探索 (ANN)
NGUYEN ANH TUAN Group study memo 12 / 45
k 近傍法の例
学習用のデータが二つカテゴリ A, B に
分けた時、問い合わせデータ “?”はどの
カテゴリに入るか?→ データの分類問題
アルゴリズム:
NGUYEN ANH TUAN Group study memo 13 / 45
k 近傍法の例
学習用のデータが二つカテゴリ A, B に
分けた時、問い合わせデータ “?”はどの
カテゴリに入るか?→ データの分類問題
アルゴリズム:
1 k を適切に選ぶ
2 “?”と学習用のデータとの距離を
計算
3 距離でデータを並び替える
NGUYEN ANH TUAN Group study memo 13 / 45
k 近傍法の例
学習用のデータが二つカテゴリ A, B に
分けた時、問い合わせデータ “?”はどの
カテゴリに入るか?→ データの分類問題
アルゴリズム:
1 k を適切に選ぶ
2 “?”と学習用のデータとの距離を
計算
3 距離でデータを並び替える
4 学習用のデータから k 個だけを選
別する。選択されたデータで多数
決投票を行う
5 最多となるデータのカテゴリが、
“?”の推測されたカテゴリとなる。
NGUYEN ANH TUAN Group study memo 13 / 45
関連問題
k 近傍法
ボロノイ図
近似最近傍探索 (ANN)
NGUYEN ANH TUAN Group study memo 14 / 45
ボロノイ図:2点のみ
NGUYEN ANH TUAN Group study memo 15 / 45
ボロノイ図:2点のみ
→ A, B それぞれに近い領域に分割
NGUYEN ANH TUAN Group study memo 15 / 45
ボロノイ図:3点の場合
NGUYEN ANH TUAN Group study memo 16 / 45
ボロノイ図
NGUYEN ANH TUAN Group study memo 17 / 45
関連問題
k 近傍法
ボロノイ図
近似最近傍探索 (ANN)
NGUYEN ANH TUAN Group study memo 18 / 45
近似最近傍探索(ANN)
次元の呪いへの対策
正確な解を求めるよりも、ある確率以上でそのベクトルが最
近傍となるものを求めたい。
NGUYEN ANH TUAN Group study memo 19 / 45
手法
線形探索
kd 木
Locality Sensitive Hashing(LSH)
その他
NGUYEN ANH TUAN Group study memo 20 / 45
線形探索
すべてのデータをスキャンして、クエリベクトルとの距離を
計算する。
計算した距離の中の最小値とそれに対する位置を求める。
時間計算量 O(nD)、追加メモリなし
NGUYEN ANH TUAN Group study memo 21 / 45
手法
線形探索
kd 木
Locality Sensitive Hashing(LSH)
その他
NGUYEN ANH TUAN Group study memo 22 / 45
kd木
二分木の探索 → 平均時間計算量:O(D log n)、最悪時 (偏りの
木):O(nD)
空間分割を表現する。
(a) 二次元空間データ (b) kd 木
NGUYEN ANH TUAN Group study memo 23 / 45
kd木:探索アルゴリズム
1 二分探索木と同じ探索になるが、
2 一致するものではなく、近いものをもとめる。
3 葉へ到着する直前のノードを暫定的な最近傍 temp
4 back track を行い、temp から root へ戻る道で、query と
より近いものがあれば、temp を更新する。
NGUYEN ANH TUAN Group study memo 24 / 45
kd木:次元の呪い
平衡木にすれば、1~3 の平均時間計算量が O(D log n) になる
が、その時でも 4 の計算量が生じる。
2
D.T. Lee, C. K. Wong, “Worst-case analysis for region and partial
region searches in multidimensional binary search trees and
balanced quad trees”, Acta Informatica 13. XII. 1977, Volume 9, Issue 1,
pp 23-29
NGUYEN ANH TUAN Group study memo 25 / 45
kd木:次元の呪い
平衡木にすれば、1~3 の平均時間計算量が O(D log n) になる
が、その時でも 4 の計算量が生じる。
次元の呪い:参考文献 2
では、最悪時 kd 木での探索の時間計算
量は O(Dn1?1/D
) となる。
2
D.T. Lee, C. K. Wong, “Worst-case analysis for region and partial
region searches in multidimensional binary search trees and
balanced quad trees”, Acta Informatica 13. XII. 1977, Volume 9, Issue 1,
pp 23-29
NGUYEN ANH TUAN Group study memo 25 / 45
kd木:次元の呪い
平衡木にすれば、1~3 の平均時間計算量が O(D log n) になる
が、その時でも 4 の計算量が生じる。
次元の呪い:参考文献 2
では、最悪時 kd 木での探索の時間計算
量は O(Dn1?1/D
) となる。
D → +∞ の時 Dn1?1/D
→ Dn (5)
2
D.T. Lee, C. K. Wong, “Worst-case analysis for region and partial
region searches in multidimensional binary search trees and
balanced quad trees”, Acta Informatica 13. XII. 1977, Volume 9, Issue 1,
pp 23-29
NGUYEN ANH TUAN Group study memo 25 / 45
kd木:最悪時の例
NGUYEN ANH TUAN Group study memo 26 / 45
kd木:もう一つの問題点
暫定解を格納するメモリが生じる。→ データを葉につめる。
データを葉につめる。一個のデータを一つの箱にいれる。→
箱の分け方?
NGUYEN ANH TUAN Group study memo 27 / 45
手法
線形探索
kd 木
Locality Sensitive Hashing(LSH)
その他
NGUYEN ANH TUAN Group study memo 28 / 45
手法
線形探索
kd 木
Locality Sensitive Hashing(LSH)
その他
NGUYEN ANH TUAN Group study memo 29 / 45
AESA
距離の三公理を使う。→ 距離の選択:Minkowski 距離なら
OK
NGUYEN ANH TUAN Group study memo 30 / 45
AESA
距離の三公理を使う。→ 距離の選択:Minkowski 距離なら
OK
アルゴリズム
1 全データでペアの距離を計算する。
2 表で計算結果をまとめる。
3 距離の三公理と表のデータで最近傍になり得ないものを除去
する。
NGUYEN ANH TUAN Group study memo 30 / 45
AESA
距離の三公理を使う。→ 距離の選択:Minkowski 距離なら
OK
アルゴリズム
1 全データでペアの距離を計算する。
2 表で計算結果をまとめる。
3 距離の三公理と表のデータで最近傍になり得ないものを除去
する。
→ 問題点:距離のデータを格納する表の作成に時間がかかる。
探索時、蓄積データのためにメモリ量がかかる。
NGUYEN ANH TUAN Group study memo 30 / 45
AESA
距離の三公理を使う。→ 距離の選択:Minkowski 距離なら
OK
アルゴリズム
1 全データでペアの距離を計算する。
2 表で計算結果をまとめる。
3 距離の三公理と表のデータで最近傍になり得ないものを除去
する。
→ 問題点:距離のデータを格納する表の作成に時間がかかる。
探索時、蓄積データのためにメモリ量がかかる。
→LAESA:蓄積データの一部のみを使用する。
NGUYEN ANH TUAN Group study memo 30 / 45
ボロノイ分割
ボロノイ分割を行ってから、クエリベクトルはどのボロノイ
領域になるかを調べて、その領域の母点を最近傍となる。
ボロノイ分割を行うのに O(n2
D) の時間がかかる。
NGUYEN ANH TUAN Group study memo 31 / 45
最近の研究
Product Quantization3
3
H. Jegou et al., “Product Quantization for Nearest Neighbor
Search”, IEEE TRANSACTIONS ON PATTERN ANALYSIS AND
MACHINE INTELLIGENCE,VOL. 33, NO. 1,JANUARY 2011, pp 117-126
NGUYEN ANH TUAN Group study memo 32 / 45
Quantization
量子化
NGUYEN ANH TUAN Group study memo 33 / 45
Quantization
量子化
スカラ量子化
NGUYEN ANH TUAN Group study memo 33 / 45
Vector Quantization
スカラ量子化 →1 次元データの表現 (数値だけ?)
NGUYEN ANH TUAN Group study memo 34 / 45
Vector Quantization
スカラ量子化 →1 次元データの表現 (数値だけ?)
ベクトル量子化
NGUYEN ANH TUAN Group study memo 34 / 45
Vector Quantization
コードブック (codebook) C = {pi|0 ≤ i < k}
量子器 (quantizer) Q : RD
→ C
x ∈ RD
の時、Q(x) ∈ C
NGUYEN ANH TUAN Group study memo 35 / 45
Vector Quantization
コードブック (codebook) C = {pi|0 ≤ i < k}
量子器 (quantizer) Q : RD
→ C
x ∈ RD
の時、Q(x) ∈ C
RD
を k 領域に分割する → ボロノイ図のイメージ
NGUYEN ANH TUAN Group study memo 35 / 45
Vector Quantization
コードブック (codebook) C = {pi|0 ≤ i < k}
量子器 (quantizer) Q : RD
→ C
x ∈ RD
の時、Q(x) ∈ C
RD
を k 領域に分割する → ボロノイ図のイメージ
Q(x) = arg min
ci∈C
d(x, ci) (6)
NGUYEN ANH TUAN Group study memo 35 / 45
Vector Quantization
コードブック (codebook) C = {pi|0 ≤ i < k}
量子器 (quantizer) Q : RD
→ C
x ∈ RD
の時、Q(x) ∈ C
RD
を k 領域に分割する → ボロノイ図のイメージ
Q(x) = arg min
ci∈C
d(x, ci) (6)
ボロノイ領域を Vi = {x ∈ RD
: Q(x) = ci} とすると、
ci = E[x|i] =
∫
Vi
p(x)xdx (7)
NGUYEN ANH TUAN Group study memo 35 / 45
Vector Quantization
コードブックのサイズ k
NGUYEN ANH TUAN Group study memo 36 / 45
Vector Quantization
コードブックのサイズ k
各ベクトルを表現するのに ?log2 k? ビットが必要
NGUYEN ANH TUAN Group study memo 36 / 45
Vector Quantization
コードブックのサイズ k
各ベクトルを表現するのに ?log2 k? ビットが必要
空間を k 領域に分割 → k-means 法の量子器
NGUYEN ANH TUAN Group study memo 36 / 45
Vector Quantization:次元の呪い
コードブックのサイズ k
NGUYEN ANH TUAN Group study memo 37 / 45
Vector Quantization:次元の呪い
コードブックのサイズ k
k はどのぐらいとれば良いか?
NGUYEN ANH TUAN Group study memo 37 / 45
Vector Quantization:次元の呪い
コードブックのサイズ k
k はどのぐらいとれば良いか? → k ≈ exp(D)
NGUYEN ANH TUAN Group study memo 37 / 45
Vector Quantization:次元の呪い
コードブックのサイズ k
k はどのぐらいとれば良いか? → k ≈ exp(D)
→ 次元が増えると、コードブックのサイズが指数的に増加
NGUYEN ANH TUAN Group study memo 37 / 45
Product Quantization
ベクトル量子化の欠点を補いたい → 直積量子化
NGUYEN ANH TUAN Group study memo 38 / 45
Product Quantization
発想
NGUYEN ANH TUAN Group study memo 39 / 45
Product Quantization
発想
64 bit のコードブック ? log2 k = 64 ? k = 264
264
個の整数型データを保存するのに、コードブックのサイズ
は
NGUYEN ANH TUAN Group study memo 39 / 45
Product Quantization
発想
64 bit のコードブック ? log2 k = 64 ? k = 264
264
個の整数型データを保存するのに、コードブックのサイズ
は 264
× 32[bit]≈ 64, 000, 000, 000, 000[GB]=64[Zettabyte]
NGUYEN ANH TUAN Group study memo 39 / 45
Product Quantization
発想
64 bit のコードブック ? log2 k = 64 ? k = 264
264
個の整数型データを保存するのに、コードブックのサイズ
は 264
× 32[bit]≈ 64, 000, 000, 000, 000[GB]=64[Zettabyte]
例えば、各 ci を二つの 32 ビットの ci1, ci2 に分割すると、必
要な個数は
NGUYEN ANH TUAN Group study memo 39 / 45
Product Quantization
発想
64 bit のコードブック ? log2 k = 64 ? k = 264
264
個の整数型データを保存するのに、コードブックのサイズ
は 264
× 32[bit]≈ 64, 000, 000, 000, 000[GB]=64[Zettabyte]
例えば、各 ci を二つの 32 ビットの ci1, ci2 に分割すると、必
要な個数は 2 × 232
= 233
個
NGUYEN ANH TUAN Group study memo 39 / 45
Product Quantization
発想
64 bit のコードブック ? log2 k = 64 ? k = 264
264
個の整数型データを保存するのに、コードブックのサイズ
は 264
× 32[bit]≈ 64, 000, 000, 000, 000[GB]=64[Zettabyte]
例えば、各 ci を二つの 32 ビットの ci1, ci2 に分割すると、必
要な個数は 2 × 232
= 233
個
コードブックのサイズは 233
× 32[bit]≈ 32, 000[GB]=32[TB]
NGUYEN ANH TUAN Group study memo 39 / 45
Product Quantization
コードブック (codebook) C = {pi|0 ≤ i < k} の D = log2 k
次元の空間を m 個 Cj の子空間 (次元が D/m) に分割する。
C = C1 × C2 × . . . × Cm (8)
NGUYEN ANH TUAN Group study memo 40 / 45
Product Quantization
コードブック (codebook) C = {pi|0 ≤ i < k} の D = log2 k
次元の空間を m 個 Cj の子空間 (次元が D/m) に分割する。
C = C1 × C2 × . . . × Cm (8)
子量子器 Qj : RD/m
→ Cj
子コードブックのサイズ
k?
= 2
D
m = 2
log2 k
m = k
1
m (9)
総コードブックのサイズは mk
1
m
NGUYEN ANH TUAN Group study memo 40 / 45
Searching algorithm(By H. Jegou et al.)
1 Indexing
2 Searching
NGUYEN ANH TUAN Group study memo 41 / 45
Indexing
前提条件:次元 D、距離関数 d(x, y)
入力:ベクトル y ∈ RD
NGUYEN ANH TUAN Group study memo 42 / 45
Indexing
前提条件:次元 D、距離関数 d(x, y)
入力:ベクトル y ∈ RD
アルゴリズム
1 y を Qc(y) に量子化
2 距離 r(y) = y ? Qc(y) を計算
3 r(y) を Qp(r(y)) に量子化。r(y) を uj(y), j = 1, 2, . . . m に分
割。uj(y) → Qj(y) の対応づけ
4 (Q1, Q2, . . . Qm) をインデクスとする → 転置インデクス
NGUYEN ANH TUAN Group study memo 42 / 45
Searching algorithm(By H. Jegou et al.)
1 Indexing
2 Searching
NGUYEN ANH TUAN Group study memo 43 / 45
Searching
前提条件:次元 D、距離関数 d(x, y)
入力:ベクトル x ∈ RD
出力:最近傍 NN(x) ∈ RD
NGUYEN ANH TUAN Group study memo 44 / 45
Searching
前提条件:次元 D、距離関数 d(x, y)
入力:ベクトル x ∈ RD
出力:最近傍 NN(x) ∈ RD
アルゴリズム
1 y を Qc(y) に量子化
2 距離 r(y) = y ? Qc(y) を計算
3 r(y) を Qp(r(y)) に量子化。r(y) を uj(y), j = 1, 2, . . . m に分
割。uj(y) → Qj(y) の対応づけ
4 (Q1, Q2, . . . Qm) をインデクスとする
NGUYEN ANH TUAN Group study memo 44 / 45
まとめ
最近傍探索問題
空間と距離、次元?次元の呪い
k 近傍法、ボロノイ図、ANN
最近傍探索の手法
木構造、表、ボロノイ図、ハッシュ
Product Quantization
VQ、PQ、直積、次元の分割
NGUYEN ANH TUAN Group study memo 45 / 45

More Related Content

What's hot (20)

Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
?
[DL輪読会]Deep Reinforcement Learning that Matters
[DL輪読会]Deep Reinforcement Learning that Matters[DL輪読会]Deep Reinforcement Learning that Matters
[DL輪読会]Deep Reinforcement Learning that Matters
Deep Learning JP
?
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
Deep Learning JP
?
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
?
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
?
「世界モデル」と関连研究について
「世界モデル」と関连研究について「世界モデル」と関连研究について
「世界モデル」と関连研究について
Masahiro Suzuki
?
はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)
はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)
はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
?
3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向
Kensho Hara
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
最适输送の计算アルゴリズムの研究动向
最适输送の计算アルゴリズムの研究动向最适输送の计算アルゴリズムの研究动向
最适输送の计算アルゴリズムの研究动向
ohken
?
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
Plot Hong
?
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
?
スパースモデリングによる多次元信号?画像復元
スパースモデリングによる多次元信号?画像復元スパースモデリングによる多次元信号?画像復元
スパースモデリングによる多次元信号?画像復元
Shogo Muramatsu
?
罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について
罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について
罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について
Sho Takase
?
フーリエ変换と画像圧缩の仕组み
フーリエ変换と画像圧缩の仕组みフーリエ変换と画像圧缩の仕组み
フーリエ変换と画像圧缩の仕组み
yuichi takeda
?
グラフニューラルネットワーク入门
グラフニューラルネットワーク入门グラフニューラルネットワーク入门
グラフニューラルネットワーク入门
ryosuke-kojima
?
深层生成モデルと世界モデル
深层生成モデルと世界モデル深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
?
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
Shohei Taniguchi
?
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
?
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
?
[DL輪読会]Deep Reinforcement Learning that Matters
[DL輪読会]Deep Reinforcement Learning that Matters[DL輪読会]Deep Reinforcement Learning that Matters
[DL輪読会]Deep Reinforcement Learning that Matters
Deep Learning JP
?
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
摆顿尝轮読会闭ドメイン転移と不変表现に関するサーベイ
Deep Learning JP
?
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
?
計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-計算論的学習理論入門 -PAC学習とかVC次元とか-
計算論的学習理論入門 -PAC学習とかVC次元とか-
sleepy_yoshi
?
「世界モデル」と関连研究について
「世界モデル」と関连研究について「世界モデル」と関连研究について
「世界モデル」と関连研究について
Masahiro Suzuki
?
はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)
はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)
はし?めてのハ?ターン認識 第5章 k最近傍法(k_nn法)
Motoya Wakiyama
?
3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向3D CNNによる人物行動認識の動向
3D CNNによる人物行動認識の動向
Kensho Hara
?
笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门笔搁惭尝学习者から入る深层生成モデル入门
笔搁惭尝学习者から入る深层生成モデル入门
tmtm otm
?
最适输送の计算アルゴリズムの研究动向
最适输送の计算アルゴリズムの研究动向最适输送の计算アルゴリズムの研究动向
最适输送の计算アルゴリズムの研究动向
ohken
?
Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
Plot Hong
?
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
?
スパースモデリングによる多次元信号?画像復元
スパースモデリングによる多次元信号?画像復元スパースモデリングによる多次元信号?画像復元
スパースモデリングによる多次元信号?画像復元
Shogo Muramatsu
?
罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について
罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について
罢谤补苍蝉蹿辞谤尘别谤を多层にする际の勾配消失问题と解决法について
Sho Takase
?
フーリエ変换と画像圧缩の仕组み
フーリエ変换と画像圧缩の仕组みフーリエ変换と画像圧缩の仕组み
フーリエ変换と画像圧缩の仕组み
yuichi takeda
?
グラフニューラルネットワーク入门
グラフニューラルネットワーク入门グラフニューラルネットワーク入门
グラフニューラルネットワーク入门
ryosuke-kojima
?
深层生成モデルと世界モデル
深层生成モデルと世界モデル深层生成モデルと世界モデル
深层生成モデルと世界モデル
Masahiro Suzuki
?
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
?
Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)Control as Inference (強化学習とベイズ統計)
Control as Inference (強化学習とベイズ統計)
Shohei Taniguchi
?
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Deep Learning JP
?

Similar to 最近傍探索と直積量子化(Nearest neighbor search and Product Quantization) (20)

130323 slide all
130323 slide all130323 slide all
130323 slide all
ikea0064
?
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
Ohsawa Goodfellow
?
東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering
Hiroshi Ono
?
A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”
Kota Matsui
?
topology of musical data
topology of musical datatopology of musical data
topology of musical data
Tatsuki SHIMIZU
?
若手研究者のための招待讲演会
若手研究者のための招待讲演会若手研究者のための招待讲演会
若手研究者のための招待讲演会
Joe Suzuki
?
introductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysisintroductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysis
Tatsuki SHIMIZU
?
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
?
Shunsuke Horii
Shunsuke HoriiShunsuke Horii
Shunsuke Horii
Suurist
?
ネットワーク科学 空间システムデザイン
ネットワーク科学 空间システムデザインネットワーク科学 空间システムデザイン
ネットワーク科学 空间システムデザイン
hayashiresearchlab
?
Integrating different data types by regularized unsupervised multiple kernel...
Integrating different data types by regularized  unsupervised multiple kernel...Integrating different data types by regularized  unsupervised multiple kernel...
Integrating different data types by regularized unsupervised multiple kernel...
Y-h Taguchi
?
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
Taiji Suzuki
?
Information-Theoretic Metric Learning
Information-Theoretic Metric LearningInformation-Theoretic Metric Learning
Information-Theoretic Metric Learning
Koji Matsuda
?
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
ryotat
?
线形回帰と阶层的クラスタリングの実装
线形回帰と阶层的クラスタリングの実装线形回帰と阶层的クラスタリングの実装
线形回帰と阶层的クラスタリングの実装
Yuya Takashina
?
第8回 配信講義 計算科学技術特論A(2021)
第8回 配信講義 計算科学技術特論A(2021)第8回 配信講義 計算科学技術特論A(2021)
第8回 配信講義 計算科学技術特論A(2021)
RCCSRENKEI
?
210603 yamamoto
210603 yamamoto210603 yamamoto
210603 yamamoto
RCCSRENKEI
?
ユークリッド距离以外の距离で教师无しクラスタリング
ユークリッド距离以外の距离で教师无しクラスタリングユークリッド距离以外の距离で教师无しクラスタリング
ユークリッド距离以外の距离で教师无しクラスタリング
Maruyama Tetsutaro
?
130323 slide all
130323 slide all130323 slide all
130323 slide all
ikea0064
?
PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半PRML上巻勉強会 at 東京大学 資料 第1章後半
PRML上巻勉強会 at 東京大学 資料 第1章後半
Ohsawa Goodfellow
?
東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering東京大学工学部計数工学科応用音響学 D2 Clustering
東京大学工学部計数工学科応用音響学 D2 Clustering
Hiroshi Ono
?
A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”A summary on “On choosing and bounding probability metrics”
A summary on “On choosing and bounding probability metrics”
Kota Matsui
?
若手研究者のための招待讲演会
若手研究者のための招待讲演会若手研究者のための招待讲演会
若手研究者のための招待讲演会
Joe Suzuki
?
introductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysisintroductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysis
Tatsuki SHIMIZU
?
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
?
Shunsuke Horii
Shunsuke HoriiShunsuke Horii
Shunsuke Horii
Suurist
?
ネットワーク科学 空间システムデザイン
ネットワーク科学 空间システムデザインネットワーク科学 空间システムデザイン
ネットワーク科学 空间システムデザイン
hayashiresearchlab
?
Integrating different data types by regularized unsupervised multiple kernel...
Integrating different data types by regularized  unsupervised multiple kernel...Integrating different data types by regularized  unsupervised multiple kernel...
Integrating different data types by regularized unsupervised multiple kernel...
Y-h Taguchi
?
Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
Taiji Suzuki
?
Information-Theoretic Metric Learning
Information-Theoretic Metric LearningInformation-Theoretic Metric Learning
Information-Theoretic Metric Learning
Koji Matsuda
?
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
ryotat
?
线形回帰と阶层的クラスタリングの実装
线形回帰と阶层的クラスタリングの実装线形回帰と阶层的クラスタリングの実装
线形回帰と阶层的クラスタリングの実装
Yuya Takashina
?
第8回 配信講義 計算科学技術特論A(2021)
第8回 配信講義 計算科学技術特論A(2021)第8回 配信講義 計算科学技術特論A(2021)
第8回 配信講義 計算科学技術特論A(2021)
RCCSRENKEI
?
ユークリッド距离以外の距离で教师无しクラスタリング
ユークリッド距离以外の距离で教师无しクラスタリングユークリッド距离以外の距离で教师无しクラスタリング
ユークリッド距离以外の距离で教师无しクラスタリング
Maruyama Tetsutaro
?

Recently uploaded (11)

测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
sugiuralab
?
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
Matsushita Laboratory
?
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
NTT DATA Technology & Innovation
?
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
harmonylab
?
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
Matsushita Laboratory
?
LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3
LFDT Tokyo Meetup
?
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
harmonylab
?
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
Industrial Technology Research Institute (ITRI)(工業技術研究院, 工研院)
?
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
CRI Japan, Inc.
?
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
Matsushita Laboratory
?
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
sugiuralab
?
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
sugiuralab
?
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
Matsushita Laboratory
?
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
NTT DATA Technology & Innovation
?
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
harmonylab
?
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
Matsushita Laboratory
?
LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3
LFDT Tokyo Meetup
?
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
harmonylab
?
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
Industrial Technology Research Institute (ITRI)(工業技術研究院, 工研院)
?
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
CRI Japan, Inc.
?
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
Matsushita Laboratory
?
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
sugiuralab
?

最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)