狠狠撸

狠狠撸Share a Scribd company logo
狈滨狈と画像分类
for 2016年の年忘れ!人工知能LT祭
大郷 友海
2016/12/22(木)
自己紹介
名前: 大郷 友海 (だいごう ともみ)
職業: プログラマ(VB.net, C++, )
最近はまっていること:
ディープラーニング(画像分類)。自作モデルで分類精度を上げたい。
話すこと
1. Chainerで画像分類を試みている
2. 正解率(补肠肠耻谤补肠测)が上がらない
3. NIN(Network in Network)について
4. 自作モデルを改善する
話すこと
1. Chainerで画像分類を試みている
2. 正解率(补肠肠耻谤补肠测)が上がらない
3. NIN(Network in Network)について
4. 自作モデルを改善する
1. Chainerで画像分類を試みている
Chainer
? Python用のディープラーニングフレームワーク
? 動的な計算グラフ構築による直感的なコードが特徴
http://chainer.org/
画像分類
? キノコを分類したい!
http://cdn-ak.f.st-hatena.com/images/fotolife/d/defender_21/20160114/20160114085535.jpg
データセット
? 画像検索で集めたキノコ画像742枚
? クラス数は7
? 256*256(カラー)に揃える
データセット内訳
2. エリンギ
1. エノキダケ
3. シイタケ
4. シメジ
5. タモギタケ
6. ナメコ
7. マイタケ
プログラム
? chainer v1.5.01
付属のexamplesより、imagenetをコピー
? ブログ記事等を参考に動かす
? threadingなどコードが難しいため、簡略化
? モデルは3層CNN + 2層全結合層 を作成
試行錯誤の末???
1
 https://github.com/pfnet/chainer/releases?after=v1.6.2
結果
テストデータの正解率(accuracy) = 56.25%
内訳???アルゴリズム
? 学習用画像は540枚(全データの75%)
? (画像-平均画像) / 標準偏差 で正規化
? 元画像を224*224(カラー)にランダム切り抜き
? 16枚ずつミニバッチ学習
? epoch(学習回数)=50
? optimizer(学習率の決定方法)はAdam
? WeightDecay(重み減衰)=0.0005, 骋谤补诲颈别苍迟颁濒颈辫辫颈苍驳(重み上限)=8.75
内訳???モデル定義
L.Convolution2D(3, 6, 7),
L.Convolution2D(6, 3, 5),
L.Convolution2D(3, 2, 3),
F.Linear(1152,500),
F.Linear(500,7),
in, out, ksize
内訳???forward計算
h = F.relu(self.conv1(x))
h = F.max_pooling_2d(h, 3, stride=2)
h = F.relu(self.conv2(h))
h = F.average_pooling_2d(h, 3, stride=2)
h = F.relu(self.conv3(h))
h = F.average_pooling_2d(h, 3, stride=2)
h = F.dropout(F.relu(h=self.l1(h)),ratio=0.3,train=train)
y = self.l2(h)
畳み込み
プーリング
↓
畳み込み
プーリング
↓
畳み込み
プーリング
↓
全結合
全結合
2. 正解率(补肠肠耻谤补肠测)が上がらない
結果
テストデータの正解率(accuracy) = 56.25%
???せっかくなのでもう少し上げたい。
データセット見直し
? 画像検索で集めたキノコ画像742枚→ノイズ付加で水増し1
して13,356枚に!
? クラス数は7
? 256*256(カラー)に揃える →64, 32pxおよびモノクロも試す
1 
http://qiita.com/bohemian916/items/9630661cd5292240f8c7
アルゴリズム見直し
? 学習用画像は540枚(全データの75%) →10,017枚
? (画像-平均画像) / 標準偏差 で正規化
? 元画像を224*224(カラー)にランダム切り抜き →192,128,64,32,28px等???
? 16枚ずつミニバッチ学習 →20, 8枚(20枚以上は厳しい)
? epoch(学習回数)=50 →200など(上げると過学習する)
? optimizer(学習率の決定方法)はAdam
? WeightDecay(重み減衰)=0.0005, 骋谤补诲颈别苍迟颁濒颈辫辫颈苍驳(重み上限)=8.75→調整
モデル見直し
? 畳み込み層L.Convolution2D(in_channels, out_channels, ksize)をひたすら調整
? Convolution→BatchNormalization→relu→maxPooling とするとaccuracy改善
するらしい1
が、今回は観測できず。
? Convolution層のチャネル数が入力から出力側へ向けて大きくなっていく構造をよく
見かけた。どういうことかというと???
1
 http://hirotaka-hachiya.hatenablog.com/entry/2016/08/06/175824
モデル見直し
? L.Convolution2D(3, 6, 7),
? L.Convolution2D(6, 3, 5),
? L.Convolution2D(3, 2, 3),
? l1=F.Linear(1152,500),
? l2=F.Linear(500,7),
こうではなくて、
 L.Convolution2D(3, 6, 7),
 L.Convolution2D(6, 9, 5),
 L.Convolution2D(9,12, 3),
 l1=F.Linear(1152,500),
 l2=F.Linear(500,7),
こう。(値は適当)
ksizeはその逆パターン?(未確認)
in, out, ksize in, out, ksize
モデル見直し
先の層へ行くほどフィーチャーマップの
サイズが小さくなるため出力チャネル
数が一定だとメモリに空きが出来る。
→チャネル数を増やして自由度を上げ
つつメモリを有効活用するためでは?
という意見を頂いた。
 L.Convolution2D(3, 6, 7),
 L.Convolution2D(6, 9, 5),
 L.Convolution2D(9,12, 3),
 l1=F.Linear(1152,500),
 l2=F.Linear(500,7),
in, out, ksize
見直し結果
良さそうなものもあったが、全体的に過学習気味。
(学習 と テスト の差が非常に大きい???)
見直し結果
? 大きめのミスに気づく
 1epoch毎に画像をランダムに並び替えるはずが、最初の1回しか並び替えていない
修正すると???
見直し結果
一気に未学習気味になった。epochを上げても改善せず。
(学習データ も テストデータ も正解率が小さい???)
【参考】 過学習 / 未学習
● 過学習に有効
○ 学習データを増やす
○ 変数を減らす
○ λ(正則化パラメータ)を大きくする
● 高バイアスに有効
○ 変数増やす
○ 多項式にする(モデルを複雑にする)
○ λ減らす
※2
※1 "Python Machine Learning" より引用 参考: http://chezou.hatenablog.com/entry/2016/05/29/215739
※2 http://lab.synergy-marketing.co.jp/blog/tech/machine-learning-stanford-3
※1
NINを試す
? 未学習気味になったものと同じアルゴリズムで、モデルをchainer付属のnin.pyに
置き換えて学習させてみると???
NINを試す
テストデータの正解率が63.9%に! (7.65ポイント上昇)
3. NIN(Network in Network)について
NIN(Network in Network)
? Min Linら(2014)の提案したニューラルネットワークアーキテクチャ1
? 従来のCNNの線形フィルタを多層パーセプトロン(MLP)に置き換える
? CNNは層が進むほど広域をフィルタして高次の概念を生成するが、この提案は局
所的な画像が統合されて高次の概念になる前により良い抽象化をすることに意義が
ある。
1
 https://arxiv.org/abs/1312.4400
NIN(Network in Network)
http://qiita.com/muddydixon/items/11ce0e7352c82bc07fcc
↑ 論文中にあるNINの全体図。3つのMLP層とGlobalAveragePooling層が使
用されている
←NIN内の各レイヤ出力の計算式。活性化関数にreluが使われている。
 i,jは入力フィーチャマップpixelのインデックス。kはチャネルのインデックス、
 nはMLP層の数 
Global Average Pooling
 
1
 https://arxiv.org/abs/1312.4400
? 同論文で提案されている正則化手法(regularizer)1
? 従来のCNNはConvolutionで特徴抽出をし、全結合層で分類するが、全結合層は
過学習しやすい。
? 本手法はこの全結合層をAveragePoolingで置き換え、CNNと各クラスへの出力
を橋渡しする。(クラスラベル1つにつき1つのフィーチャーマップが出力される)
? 学習パラメータを持たないため、過学習に強い
chainer付属nin.pyのモデル定義
 w = math.sqrt(2)
mlpconv1=L.MLPConvolution2D(3, (96, 96, 96), 11, stride=4, wscale=w),
mlpconv2=L.MLPConvolution2D(96, (256, 256, 256), 5, pad=2, wscale=w),
mlpconv3=L.MLPConvolution2D(256, (384, 384, 384), 3, pad=1, wscale=w),
mlpconv4=L.MLPConvolution2D(384, (1024, 1024, 1000), 3, pad=1,wscale=w),
chainer付属nin.pyのモデル定義
 w = math.sqrt(2)
mlpconv1=L.MLPConvolution2D(3, (96, 96, 96), 11, stride=4, wscale=w),
mlpconv2=L.MLPConvolution2D(96, (256, 256, 256), 5, pad=2, wscale=w),
mlpconv3=L.MLPConvolution2D(256, (384, 384, 384), 3, pad=1, wscale=w),
mlpconv4=L.MLPConvolution2D(384, (1024, 1024, 1000), 3, pad=1,wscale=w),
MLPConvolution2D(入力チャネル数、出力チャネル数、フィルタサイズ、ストライド、重み初期化)
chainer付属nin.pyのforward計算
 h = F.relu(self.conv1(x))
h = F.max_pooling_2d(h, 3, stride=2)
h = F.relu(self.conv2(h))
h = F.max_pooling_2d(h, 3, stride=2)
h = F.relu(self.conv3(h))
h = F.max_pooling_2d(h, 3, stride=2)
h = self.conv4(F.dropout(h, train=self.train))
y = F.reshape(F.average_pooling_2d(h, 6), (x.data.shape[0], 1000))
chainer付属nin.pyのforward計算
 h = F.relu(self.conv1(x))
h = F.max_pooling_2d(h, 3, stride=2)
h = F.relu(self.conv2(h))
h = F.max_pooling_2d(h, 3, stride=2)
h = F.relu(self.conv3(h))
h = F.max_pooling_2d(h, 3, stride=2)
h = self.conv4(F.dropout(h, train=self.train))
y = F.reshape(F.average_pooling_2d(h, 6), (x.data.shape[0], 1000))
畳み込み
プーリング
↓
畳み込み
プーリング
↓
畳み込み
プーリング
↓
畳み込み
Global Average
Pooling
4. 自作モデルを改善する
 
モデルの改善
 w = math.sqrt(2)
conv1=L.Convolution2D(3, 8, 7,wscale=w),
conv2=L.Convolution2D(8, 16, 5,wscale=w),
conv3=L.Convolution2D(16, 32, 3,wscale=w),
conv4=L.Convolution2D(32, 48, 3,wscale=w),
モデルの改善
 w = math.sqrt(2)
conv1=L.Convolution2D(3, 8, 7,wscale=w),
conv2=L.Convolution2D(8, 16, 5,wscale=w),
conv3=L.Convolution2D(16, 32, 3,wscale=w),
conv4=L.Convolution2D(32, 48, 3,wscale=w),
in, out, ksize
重みの初期値を設定
NINに倣って4層に増やした
Linear(全結合層)をなくした
層が進むほどチャネル数が増える構造
モデルの改善(forward計算)
 
h = F.relu(self.conv1(x))
h = F.max_pooling_2d(h, 3, stride=2)
h = F.relu(self.conv2(h))
h = F.average_pooling_2d(h, 3, stride=2)
h = F.relu(self.conv3(h))
h = F.average_pooling_2d(h, 3, stride=2)
h = F.relu(F.dropout(self.conv4(h), ratio=0.5,train=train))
h = F.average_pooling_2d(h, 3, stride=2)
y = F.reshape(F.average_pooling_2d(h, 6), (x.data.shape[0],48))
畳み込み
プーリング
↓
畳み込み
プーリング
↓
畳み込み
プーリング
↓
畳み込み
プーリング
↓
Global Average
Pooling
改善結果
 
テストデータの正解率(accuracy)=61.3% !
(最初のモデルから5.05ポイントの増加)
考察
 ? 層数とチャネル数(モデルの奥行きと幅)を増やして表現力を向上させたこと
? それに伴う過学習を予防するGlobalAveragePoolingを導入したこと
? 各層での重みの初期値を変更したことで学習を短時間で終えられた?こと
上記が正解率の向上に寄与したものと考える。
展望
 ? PReLU, MaxOut, BatchNormalizationなどの他手法も調べたい
? 今の精度測定方法が甘いのでもっと厳密に
展望
 
http://joehinkle.com/wordpress/wp-content/uploads/2015/04/King-Oyster-Mushrooms-150x150.jpg
大量データ(キノコ)を分類できる日も近い???!
 
ご清聴ありがとうございました。

More Related Content

Similar to 狈滨狈と画像分类 for 人工知能LT祭 (20)

201209 Biopackathon 12th
201209 Biopackathon 12th201209 Biopackathon 12th
201209 Biopackathon 12th
Satoshi Kume
?
MIRU2018 tutorial
MIRU2018 tutorialMIRU2018 tutorial
MIRU2018 tutorial
Takayoshi Yamashita
?
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep Learning
Tadaichiro Nakano
?
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
de:code 2017
?
私のチームのリーダブルコード
私のチームのリーダブルコード私のチームのリーダブルコード
私のチームのリーダブルコード
Keisuke Tameyasu
?
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??
SSII
?
画像认识で物を见分ける
画像认识で物を见分ける画像认识で物を见分ける
画像认识で物を见分ける
Kazuaki Tanida
?
Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能
Ryosuke Okuta
?
リクルートにおける画像解析事例绍介
リクルートにおける画像解析事例绍介リクルートにおける画像解析事例绍介
リクルートにおける画像解析事例绍介
Recruit Technologies
?
笔测迟丑辞苍による机械学习入門 ~SVMからDeep Learningまで~
笔测迟丑辞苍による机械学习入門 ~SVMからDeep Learningまで~笔测迟丑辞苍による机械学习入門 ~SVMからDeep Learningまで~
笔测迟丑辞苍による机械学习入門 ~SVMからDeep Learningまで~
Yasutomo Kawanishi
?
Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編
Etsuji Nakai
?
Rpscala2011 0601
Rpscala2011 0601Rpscala2011 0601
Rpscala2011 0601
Hajime Yanagawa
?
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみたGMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
Tetsuo Yamabe
?
机械学习を用いた予测モデル构筑?评価
机械学习を用いた予测モデル构筑?评価机械学习を用いた予测モデル构筑?评価
机械学习を用いた予测モデル构筑?评価
Shintaro Fukushima
?
笔测迟丑辞苍による机械学习
笔测迟丑辞苍による机械学习笔测迟丑辞苍による机械学习
笔测迟丑辞苍による机械学习
Kimikazu Kato
?
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdf
Takuya Minagawa
?
画像処理の高性能计算
画像処理の高性能计算画像処理の高性能计算
画像処理の高性能计算
Norishige Fukushima
?
機械学習 / Deep Learning 大全 (6) Library編
機械学習 / Deep Learning 大全 (6) Library編機械学習 / Deep Learning 大全 (6) Library編
機械学習 / Deep Learning 大全 (6) Library編
Daiyu Hatakeyama
?
笔测颁辞搁础惭を用いたグラフ処理贵笔骋础アクセラレータ
笔测颁辞搁础惭を用いたグラフ処理贵笔骋础アクセラレータ笔测颁辞搁础惭を用いたグラフ処理贵笔骋础アクセラレータ
笔测颁辞搁础惭を用いたグラフ処理贵笔骋础アクセラレータ
Shinya Takamaeda-Y
?
実务者のためのかんたん厂肠补濒补锄
実务者のためのかんたん厂肠补濒补锄実务者のためのかんたん厂肠补濒补锄
実务者のためのかんたん厂肠补濒补锄
Tomoharu ASAMI
?
201209 Biopackathon 12th
201209 Biopackathon 12th201209 Biopackathon 12th
201209 Biopackathon 12th
Satoshi Kume
?
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep Learning
Tadaichiro Nakano
?
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
[AI05] 目指せ、最先端 AI 技術の実活用!Deep Learning フレームワーク 「Microsoft Cognitive Toolkit 」...
de:code 2017
?
私のチームのリーダブルコード
私のチームのリーダブルコード私のチームのリーダブルコード
私のチームのリーダブルコード
Keisuke Tameyasu
?
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術?? イラストレーションやデザインの基礎から最新鋭の技術まで ??
SSII
?
画像认识で物を见分ける
画像认识で物を见分ける画像认识で物を见分ける
画像认识で物を见分ける
Kazuaki Tanida
?
Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能Chainer v1.6からv1.7の新機能
Chainer v1.6からv1.7の新機能
Ryosuke Okuta
?
リクルートにおける画像解析事例绍介
リクルートにおける画像解析事例绍介リクルートにおける画像解析事例绍介
リクルートにおける画像解析事例绍介
Recruit Technologies
?
笔测迟丑辞苍による机械学习入門 ~SVMからDeep Learningまで~
笔测迟丑辞苍による机械学习入門 ~SVMからDeep Learningまで~笔测迟丑辞苍による机械学习入門 ~SVMからDeep Learningまで~
笔测迟丑辞苍による机械学习入門 ~SVMからDeep Learningまで~
Yasutomo Kawanishi
?
Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編
Etsuji Nakai
?
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみたGMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
GMO プライベート DMP で ビッグデータ解析をするために アプリクラウドで Apache Spark の検証をしてみた
Tetsuo Yamabe
?
机械学习を用いた予测モデル构筑?评価
机械学习を用いた予测モデル构筑?评価机械学习を用いた予测モデル构筑?评価
机械学习を用いた予测モデル构筑?评価
Shintaro Fukushima
?
笔测迟丑辞苍による机械学习
笔测迟丑辞苍による机械学习笔测迟丑辞苍による机械学习
笔测迟丑辞苍による机械学习
Kimikazu Kato
?
ConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdfConditionalPointDiffusion.pdf
ConditionalPointDiffusion.pdf
Takuya Minagawa
?
機械学習 / Deep Learning 大全 (6) Library編
機械学習 / Deep Learning 大全 (6) Library編機械学習 / Deep Learning 大全 (6) Library編
機械学習 / Deep Learning 大全 (6) Library編
Daiyu Hatakeyama
?
笔测颁辞搁础惭を用いたグラフ処理贵笔骋础アクセラレータ
笔测颁辞搁础惭を用いたグラフ処理贵笔骋础アクセラレータ笔测颁辞搁础惭を用いたグラフ処理贵笔骋础アクセラレータ
笔测颁辞搁础惭を用いたグラフ処理贵笔骋础アクセラレータ
Shinya Takamaeda-Y
?
実务者のためのかんたん厂肠补濒补锄
実务者のためのかんたん厂肠补濒补锄実务者のためのかんたん厂肠补濒补锄
実务者のためのかんたん厂肠补濒补锄
Tomoharu ASAMI
?

Recently uploaded (11)

LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3
LFDT Tokyo Meetup
?
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
CRI Japan, Inc.
?
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
Matsushita Laboratory
?
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
sugiuralab
?
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
sugiuralab
?
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
Industrial Technology Research Institute (ITRI)(工業技術研究院, 工研院)
?
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
NTT DATA Technology & Innovation
?
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
harmonylab
?
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
Matsushita Laboratory
?
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
harmonylab
?
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
Matsushita Laboratory
?
LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3LF Decentralized Trust Tokyo Meetup 3
LF Decentralized Trust Tokyo Meetup 3
LFDT Tokyo Meetup
?
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
2025フードテックWeek大阪展示会 - LoRaWANを使った複数ポイント温度管理 by AVNET玉井部長
CRI Japan, Inc.
?
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
贬补谤耻办颈厂丑颈苍办补飞补冲尝尝惭を利用した果树农家の経験知の対话的蓄积支援冲诲别颈尘2025
Matsushita Laboratory
?
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
测距センサと滨惭鲍センサを用いた指轮型デバイスにおける颜认証システムの提案
sugiuralab
?
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
空间オーディオを用いたヘッドパスワードの提案と音源提示手法の最适化
sugiuralab
?
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
ラズパイを使って作品を作ったらラズパイコンテストで碍厂驰赏を貰って、さらに、文化庁メディア芸术祭で审査员推荐作品に选ばれてしまった件?自作チップでラズパイ...
Industrial Technology Research Institute (ITRI)(工業技術研究院, 工研院)
?
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
実はアナタの身近にある!? Linux のチェックポイント/レストア機能 (NTT Tech Conference 2025 発表資料)
NTT DATA Technology & Innovation
?
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
【卒业论文】深层学习によるログ异常検知モデルを用いたサイバー攻撃検知に関する研究
harmonylab
?
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
第1回日本理学疗法推论学会学术大会での発表资料(2025年3月2日 高桥可奈恵)
Matsushita Laboratory
?
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
【卒业论文】尝尝惭を用いた惭耻濒迟颈-础驳别苍迟-顿别产补迟别における反论の効果に関する研究
harmonylab
?
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
狈辞诲补滨迟蝉耻办颈冲反省観点の分类に基づく试合の振り返り支援システムに関する有用性検証冲顿贰滨惭2025
Matsushita Laboratory
?

狈滨狈と画像分类 for 人工知能LT祭