狠狠撸
Submit Search
Casual learning machine_learning_with_excel_no1
?
2 likes
?
159 views
K
KazuhiroSato8
Follow
株式会社エクテック カジュアル勉強会 Excelで機械学習入門 第1回の投影資料
Read less
Read more
1 of 104
Download now
Downloaded 14 times
More Related Content
Casual learning machine_learning_with_excel_no1
1.
カジュアル勉強会 @仙台 Excelで機械学習入門 第1回 株式会社
エクテック 取締役 兼データサイエンティスト
2.
エクテックのミッション (Introduction)
3.
東北を、仙台を、 データサイエンスで 盛り上げる
4.
始?動: 2019年10? 拠?点: 仙台市内
2拠点 資本?: 2,000,000円 (??資本) 社員数: 3名(+若?名) 株式会社 エクテック
5.
自己紹介 東京出? 防衛?学校 第56期? 電気通信?学 ?学院 流体?学??学分野にて超?速場の研究に従事
6.
自己紹介 ??通信キャリアにて NWエンジニア?データエンジニアを 国内No.1 名刺管理クラウド企業にて 研究員 兼
ビジネスプロデューサを経て
7.
??通信キャリアにて NWエンジニア?データエンジニアを 国内No.1 名刺管理クラウド企業にて 研究員 兼
ビジネスプロデューサを経て 現在は東北を、仙台を、 データサイエンスで盛り上げるため 様々な取り組みを?っています 自己紹介
8.
プライベートな趣味として データサイエンスはもちろん, PUBG(Player Unknown Battle
Ground), Monster Hunter PS4, 第五?格 お酒全般, 新しい物好き, ?本史好きです 自己紹介
9.
第10回までの流れ 1回~3回 4回~10回 AI周辺の 基本知識 最適化の基本 推論の基本 重回帰分析 機械学習 サポートベクタマシン ナイーブベイズ ニューラルネットワーク RNN/BPTT 強化学習/Q学習
10.
前段
11.
勉强会に参加する以上...
12.
『なにか』を 持って帰って欲しい
13.
『すべて』は難しいけれど 気になった、興味をもった キーワードでも良いので ?元に持って帰って いただけると幸いです
14.
環境について (Surroundings)
15.
Excel 2013, 2016 Google
Spreadsheets
16.
本日のアジェンダ 1. 機械学習とAI, 深層学習とは 2.
教师あり学习と教师なし学习 3. モデルの最適化と最小2乗法
17.
機械学習とAI, 深層学習とは
18.
「础滨がプロ棋?に胜つ」
19.
「AIがCT画像から 医師以上にガン患部を発?」
20.
「础滨が投资判断」
21.
「础滨による?动运転」
22.
「础滨による创作活动」
23.
「AIによって、ロボットによって ヒトの仕事が奪われる」
24.
“2045年に ??知能が?間の知性を超える” (シンギュラリティ, 技術的特異点)
25.
AI (Arti?cial Intelligence) とは?
26.
頭の中でちょっと 思い浮かべてみてください
27.
(1分间)
28.
「知的な機械、特に知的なコンピュータ プログラムを作る科学と技術」 (?本??知能学会HPより)
29.
础滨には、?い歴史がある
30.
第1次世代 1960年代 1970年代初め 『探索』 パズルや迷路を解く トイ?プロブレム (おもちゃの問題)
31.
第1次世代 1960年代 1970年代初め 『探索』 パズルや迷路を解く 第2次世代 1980年代 トイ?プロブレム (おもちゃの問題) 『知識』 エキスパートシステム 医療?生産?金融? 会計?人事など さまざまな分野
32.
第1次世代 1960年代 1970年代初め 『探索』 パズルや迷路を解く 第2次世代 1980年代 第3次世代 2010年代 トイ?プロブレム (おもちゃの問題) 『知識』 エキスパートシステム 医療?生産?金融? 会計?人事など さまざまな分野 『推論』 特徴量エンジニアリング パターン認識?自動生成? 長期的な予測?分類? クラスタリング…etc
33.
第1次世代 1960年代 1970年代初め 『探索』 プログラミングによって ルールベースによる問題解決を行なっていた
34.
第1次世代 1960年代 1970年代初め 『探索』 プログラミングによって ルールベースによる問題解決を行なっていた 行き止まりの場合、戻る T字路の場合、右を選択する 十字路の場合、右を選択する
35.
第1次世代 1960年代 1970年代初め 『探索』 プログラミングによって ルールベースによる問題解決を行なっていた 行き止まりの場合、戻る T字路の場合、右を選択する 十字路の場合、右を選択する 現実問題を解くのは難しく AIに対しての失望感が広がった (冬の時代へ)
36.
第2次世代 1980年代 『知識』 ルールベースであるが 専門的な知識をバックグラウンドに問題解決
37.
第2次世代 1980年代 『知識』 ルールベースであるが 専門的な知識をバックグラウンドに問題解決 さまざまな初期症状から、 該当するものの組み合わせから病名を推薦する ※膨大なルールが構築されるものの、 矛盾が生じてしまう場合があった
38.
第2次世代 1980年代 『知識』 ルールベースであるが 専門的な知識をバックグラウンドに問題解決 さまざまな初期症状から、 該当するものの組み合わせから病名を推薦する ※膨大なルールが構築されるものの、 矛盾が生じてしまう場合があった ?間のもつ膨?な(曖昧な)常識の量と それらを具体的に記述する困難さ (冬の時代へ)
39.
第3次世代 2010年代 『推論』 ルールベースから脱却して大量のデータを 処理させながら、うまい「分け方」を コンピュータ自らに学習させる
40.
第3次世代 2010年代 『推論』 ルールベースから脱却して大量のデータを 処理させながら、うまい「分け方」を コンピュータ自らに学習させる 未知のものに対する判断や予測が可能に 人間の力を借りずに「特微量」を見出す ディープラーニング(深層学習)
41.
机械学习とは?
42.
機械学習 教师あり学习 教师なし学习
43.
機械学習 教师あり学习 教师なし学习 半教师あり学习
44.
機械学習 第2世代型の『?が機械に教える』
45.
機械学習 第2世代型の『?が機械に教える』 『機械がデータから学ぶ』
46.
データをもとに、 コンピュータが?ら学習する
47.
データをもとに、 コンピュータが?ら学習する 予測 分類 識別
48.
深层学习とは?
49.
統計学的アプローチ ニューラルネットワーク AI 機械学習(マシーンラーニング) ディープラーニング(深層学習)
50.
深層学習(ディープラーニング)とは 多層のニューラルネットワークを ?いた機械学習の?法論
51.
90年代に訪れた冬の時代から 計算機の能?が?きく向上したこと ウェブや検索エンジンの発達に伴い ?規模な訓練データを?意可能となった
52.
パラメータ最適化の難しさを 容易に解決できるようになった 80年代から盛んに研究されていた ニューラルネットワークが息を吹き返した
53.
これらニューラルネットワークを 重ね合わせること(多層化すること)で ?声、画像あるいは?語を対象とする AIの諸問題に対して圧倒的に?い性能を?す
54.
このような背景で 深層学習(ディープラーニング)は さまざまな場?で活躍している
55.
教师あり学习と教师なし学习
56.
教师あり学习
57.
データを 学習?データ, 検証?データ にわけてモデルを構築する
58.
学習?データ 検証?データ
59.
学習?データ 説明変数 これら値が、尤もらしさ を?出すもととなる
60.
学習?データ ?的変数 いわゆる、正解ラベル というもの。
61.
学習?データ パターン(説明変数)と 正確ラベル(?的変数) をもとにモデル構築
62.
学習した モデル 学習?データ
63.
学習した モデル 学習?データ 検証?データ
64.
学習した モデル 正解ラベル 出?結果
65.
学習した モデル 正解ラベル 出?結果 正解ラベルに対して 出?結果がどれくらい 正解しているか? ↓ 正解率 ↓ モデルの 予測精度
66.
教师なし学习
67.
『教師』となる 『正解ラベル』がない
68.
データ構造の中から ?ら分別して、特徴を?出すもの
69.
教師なし 学習モデル 主成分分析 オートエンコーダー クラスタリング ??組織化マップ 敵対的?成ネットワーク DBSCAN データ かたまり A B C
70.
モデルの最适化と最?2乗法
71.
モデルとは?
72.
データ 加? モデル 評価 モデル 構築 リリース データ 収集
73.
データ 加? モデル 評価 モデル 構築 リリース データ 収集
74.
データ 加? モデル 評価 モデル 構築 リリース データ 収集
75.
データ 加? モデル 評価 モデル 構築 リリース データ ?直し データ 収集
76.
データ 加? モデル 評価 モデル 構築 リリース データ ?直し データ 収集
77.
最适化とは?
78.
実際のデータ 学習済みのモデル
79.
モデルが説明できる部分 実際のデータ 学習済みのモデル
80.
最?化したい モデルが説明できない部分
81.
誤差を最?化すること ?般的に「最適化」といいます
82.
最?2乗法
83.
ごく?般的で基本となる?法に 最?2乗法があります
84.
予测値実际の値
85.
これら误差の2乗の総和を最?化する
86.
これら误差の2乗の総和を最?化する 平?誤差の総和を最?化する パラメータを持つモデルが最適である
87.
最?2乗法の例题
88.
x y 1 13.3 2
15.8 3 19.4 4 22.3 ある新興国の x年?の経済成?率y% 未知の5年?の経済成?率 を予測してみたい 経済成?率は ax + b (a, b は定数) で予測できると仮定
89.
未知の5年?の経済成?率 予測値 y_future は... y_future
= ax + b
90.
未知の5年?の経済成?率 予測値 y_future は... y_future
= ax + b 回帰?程式
91.
k年?の実際の値 y、予測値 y_k
の間には... 誤差があるはず。その誤差を eとするれば e = (y - y_k ) = {y - (ax + b)} 2 2
92.
k年?の実際の値 y、予測値 y_k
の間には... 誤差があるはず。その誤差を eとするれば e = (y - y_k ) = {y - (ax + b)} 2 2 x y 1 13.3 2 15.8 3 19.4 4 22.3 この値を代?する
93.
e = (y
- y_k ) = {y - (ax + b)} 2 2 e = {13.3 - (a + b)} + {15.8 - (2a + b)} + {19.4 - (3a + b)} + {19.4 - (4a + b)} 2 2 2 2 となる
94.
微分積分の知識が必要だけれど この e を最?にするときには 下記の関係が成?します δe δa =
0 δe δb = 0
95.
微分積分の知識が必要だけれど この e を最?にするときには 下記の関係が成?します δe δa =
0 δe δb = 0 先ほど代?したeと合わせて
96.
30a + 10b
= 192.3 10a + 4b = 70.8 これを解くと a = 3.06, b = 10.05
97.
30a + 10b
= 192.3 10a + 4b = 70.8 これを解くと a = 3.06, b = 10.05 このとき、eは最?になる
98.
もともとの回帰?程式は、下記ようになる y = 3.06x
+ 10.05
99.
もともとの回帰?程式は、下記ようになる y = 3.06x
+ 10.05 よって、5年?の経済成?率 y_futureは 3.06 ? 5 + 10.05 = 25.35 ≒ 25.4%
100.
このa, b こそが 「最適化されたパラメータ」 となっている
101.
Excelで実践 Google Spreadsheetで実践 両?ともに “LINEST”という関数を利?します
102.
第1回は、 以上となります
103.
ご不明点?ご質問?ご相談は Slackで無償でお答えいたします
104.
EoF
Download