狠狠撸

狠狠撸Share a Scribd company logo
Enjoy Science
生成AIがヒトの
「知能」探求を加速化する
2024/7/14
本シリーズ共通の趣旨:3つの謎をカジュアルに楽しむ
2
宇宙 生命 知能
資料の流れ
? 生成AIの最新動向
? 脳科学による知能探求
? 知能にとって必要な要素
? 生成AIと脳科学との接点
? まとめ
3
生成AIに連なる歴史
下記を元に加工
https://aismiley.co.jp/ai_news/detailed-explanation-of-the-history-of-ai-and-artificial-
intelligence/
? 深層学習(2006)
? バックプロパゲーション
? GPU(並列演算)
? ビッグデータ
? Transformer(2017)
→Text生成AIを牽引
? 拡散モデル(2015)
→画像/動画生成AIを
牽引
4
参考:深層学習のゴッドファーザー
5
元Google 兼
トロント大学
ジェフリー?ヒントン名誉教授
Meta所属 兼
ニューヨーク大学
ヤン?ルカン教授
Mila所属 兼
モントリオール大学
ヨシュア?ベンジオ教授
深層学習:バックプロパゲーション
6
脳の神経モデル:1943年にマカロックとピッツが提唱
→数理モデル「パーセプトロン」
→(ホップフィールド)ネットワークモデル
→多階層化した「深層学習」
バックプロパ
ゲーション(誤
差逆伝播法)
〇「教養としての人工知能」
言語の数値化で生成AI(大規模言語モデル)へ
7
科学とは客観的な正しさ
を追求する営みです。
(13,32,9,????)(1,42,44
,91,???)(???)
テキスト
データ
ベクトル
データ
科学、とは、客観的な、
正しさ、を、追求する、
営み、です。
トークン
化
※上記はあくまでイメージです
https://developers.agirobots.com/jp/attention-mechanism-transformer/
明石市
は 34%
が 29%
に 25%
と 24%
で 14%
タコが 32%
イカが 21%
台風に 15%
電話を 10%
有名です。 33%
壊れました。 21%
気づきます。 19%
笑います。 11%
与えられた情報から、大量の言語データ
で学習したモデル(生成モデル)に基づ
き、次にくる言語を確率的に予測する。
LLMはトークンをベクトル化(高次
元の数値群で座標空間を表現。潜在
空間)して関係性をもとに判断
Transformerの発明で生成AIが花咲く
必要なのは「Attention機構」だけ
8
科学とは客観的な正しさ
を追求する営みです。
(13,32,9,????)(1,42,44
,91,???)(???)
テキスト
データ
ベクトル
データ
科学、とは、客観的な、
正しさ、を、追求する、
営み、です。
トークン
化
※上記はあくまでイメージです
LLMはトークンをベクトル化(高次
元の数値群で座標空間を表現。潜在
空間)して関係性をもとに判断
https://developers.agirobots.com/jp/attention-mechanism-transformer/
生成AI(LLM)のトレンド
9
出所:AIホワイトペーパーを元に加工
最近の傾向
? スモール化(エッジ向け)
? オープン化
? 目的特化(業界/業種/言
語等)
? モジュール化(複数エキス
パートなど)
? マルチモーダル化(言語?音
声?動画との組み合わせ)
モジュール化:MoE(Mixture of Experts)
10
https://mistral.ai/news/mistral-large/
MoEを搭載したオープンソース型LLM「ミストラル」
MMLU Score(2024/2)
モジュール化:MoE(Mixture of Experts)
11
https://huggingface.co/blog/moe#stabilizing-training-with-router-z-loss
トークンによって適切なエキスパート(FFN部を代
替)に配置
マルチモーダル化
12
https://yhayato1320.hatenablog.com/entry/2022/09/11/100549
DeepMind(Google)のPerceiver
Google DeepMind:
Perceive(2021)
Flamingo (2022)
脳の仕組み:ニューロン(神経細胞)の構造
Copyright@ Koji fukuoka 13
ニューロンは1つが数万個にも繋がるネットワーク構造をとっており、それによって効率的に情報を伝達?保持しています。
※出所:Wiki
https://starpentagon.net/analytics/neural_network_unit/
ニューロンの画像
ニューロンによる情報伝達イメージ
ニューロンの仕組みを数学的
に表現したのが「ニューラル
ネットワーク」というアルゴリズ
ムで、その階層を深くしたのが
「ディープラーニング」
1.ニューロンに信号が入力 2.細胞体は入力和を判定
3.入力和が閾値より大きい時発火して
次のニューロンに伝える
脳の基本構造とAIとの類似性
Copyright@ Koji fukuoka 14
※超AI入門
※あたらしい脳科学と人工知能の教科書
ディープラーニング 実際の脳
バックプロパゲー
ション(誤差逆
伝播法)
必要 未確認
層 縦に深い
100層超も
大脳皮質:
6層
小脳皮質:
3層
教師あり学習 ある程度必要 大脳:不必
要の可能性
高
小脳:必要
ニューロン間の
接続場所
従来は隣の層と接
続。Transformer
でより遠くとも接続
近傍および
遠方と接続
ディープラーニングと実際の脳との比較
人間の知能とは?
15
いわゆる「知能」は一般的に物事を高度に記憶?思考する能力を指し、幾つかモデルも提唱されていますが、今回では知覚?
記憶?思考がどのように行われているか、という観点で探求します。
知覚
記憶(+意識)
思考
仕
組
み
解
明
知能から連想する行為
? 社会性
? 道具の使用
? 未来の計画
? 文化的活動
? 自己認識
今回における知能へのアプローチ
第2層(広い能力)の一覧
Gf(流動的知能): 思考や推理によって問題を解く能力
Gc(結晶的知能): 母語の運用など、汎用性の高い知識
Gv(視空間能力): 視覚的?空間的イメージを理解?操作する能力
Ga(聴覚的処理): 聴覚的なパターンを識別?理解する能力
Gsm(短期記憶): いわゆるワーキングメモリ
Glr(長期記憶?検索): 記憶を適切に素早く記銘?想起する能力
Gs(認知的処理速度): 熟練した認知課題をあまり意識せず素早く
こなす能力
Gq(量的知識): 定量的な思考?知識および数学的能力
Grw(読み書き): 読み書きの知識と技術
※出所:新しい知能の枠組み:「CHC理論」と「g-VPRモデル」
https://note.com/sick4989hack/n/n98b15e9b4c34
「記憶」とは?
Copyright@ Koji fukuoka 16
知能の基礎にあたる記憶は、まず感覚情報が海馬に集まり初期処理され、必要なものを大脳皮質が保管すると考えられて
います。但し身体の動かし方など言葉に出来ない記憶は、小脳で中心に作用されています。
※出所:エーザイHP「解明!記憶のメカニズム」
https://monowasure.eisai.jp/mechanism/02.html
大脳皮質
海馬
記憶を転送
(覚えるべき情報)
短期記憶 長期記憶
陳述記憶 手続き記憶
? 言葉やイメージ
? 知識
? 思い出
etc
? 楽器の演奏
? 自転車の乗り方
? スポーツのコツ
etc
記憶種類
主に小脳(と大脳基底核)
が作用
小脳
主に海馬?大脳皮質が
作用
「記憶」とTransformerとの関連
17
https://gigazine.net/news/20220914-transformer-brain/
https://www.quantamagazine.org/how-ai-transformers-mimic-parts-of-the-brain-20220912/
脳の記憶モデル(ホップフィールド
ネットワーク)をTransformer
(Attention機構)で改良することで、
記憶(脳の海馬)モデルを精緻に表現
(2022年の発表)
→脳の統合処理(バインディング問題
や意識の問題)への解明につながるか
も?
「意識」とは?:ハードプロブレム(1995年)
18
イージープロブレム
(要は意識があるとき
の脳内の動き。fMRIな
どである程度解明)
ハードプロブレム
(客観が主観体験になる
プロセスとは?)
〇Wiki:「意識のハードプロブレム」
デヴィット?
チャーマーズ
心と言語が専門の
認知科学者/哲学者
「哲学的ゾンビ」を
流行らせたことでも
有名。
「意識」に対する様々な取り組み
19
グローバルワークスペース理論
By バーナード?バース/ドゥアンヌ
ヨシュア
ベンジオ
や日本の研
究者たちが
発展
統合情報理論(IIT)
Byジュリオ?トノーニ
脳の自由エネルギー原理
By カール?フリストン
コンセプト 数理モデル その他
意識存在否定派:リベット?
前野(受動意識仮説)
物理学だけでは解明不可能:
チャーマーズ(汎心論)
実験で意識を探す:コッホ/
クリック(意識の神経相関)
脳内の量子効果で意識発生:
マカロック?ペンローズ
※写真はWikiより
参考:脳の自由エネルギー原理
脳は世界モデルを常に更新して予測的な行動をしている
20
https://deniseholt.us/fristons-ai-law-is-proven-fep-explains-how-neurons-learn/?ref=hackernoon.com
この原理をAIで実装し(アクティブ推論AI)、脳内学習予測と一致したと発表(2023)
参考:OpenAIへもラブコール
21
2023/12に、OpenAIへAGIコラボレー
ションを新聞広告で呼びかける
(LLMアプローチの限界を示唆?)
グローバルワークスペース理論
22
局所的なプロセッサー
(脳の各部位)が一
貫した解釈を得るべく
同期して大規模な並
行処理を実行し、
広範囲に共有できる
状態になると意識が発
現
※出所:スタニスラス?ドゥアンヌ「意識と脳」
役割の異なる各モジュール
が共通言語で会話できるよ
うに、共通の潜在空間に変
換している(ドゥアンヌの
仮説)
意識の事前状態(Consciousness Prior)
23
ヨシュア?ベンジオ
意識を持つ(脳内の
広範囲で交信可能)
状態では、各モ
ジュールとの情報量
が制約される
脳は2つのモードがある。
システム1:早い思考。直感的でバ
イアスをうみがち。
システム2:遅い思考。1が回答で
きないときに駆動し、論理的推論。
従来の深層学習はシステム1
→システム2を設計すべくAIに制限(一部の情報を隠す)を設定。
→部分的にバックプロパゲーションではない学習方法を採用
→アテンション機構のアイデアへ
https://uxdaystokyo.com/articles/glossary/system1-system2/
https://xtrend.nikkei.com/atcl/contents/technology/00007/00059/
https://arxiv.org/abs/2407.03105
現在はさらに発展させた(報酬を付与した)
GFlowNet(generative flow network)
を提唱し、次世代の深層学習を構想中
IIT(統合情報理論):φで意識を定量化
24
情報:サイズではなく、いかに特別であるかを表す量(=それがないと状態が変わる度合い)
統合:足し算以上の効果をもたらす作用
https://www.jstage.jst.go.jp/article/jjsai/33/4/33_460/_pdf
遷移確率行列
読み方例:
AとB(それぞれ脳のある部位)が
ある時刻で(1,1)という状態なら、1
秒後に同じ状態を維持する確率は
0.64
仮にAとBがお互いのことを知らない(因
果関係がない)とした時との変化を計測
→統合情報量φとして数値化
参考:IIT4.0の公理系(特に因果と再帰性)
25
https://journals.plos.org/ploscompbiol/article?id=10.1371/journal.pcbi.1011465
IITに従うと従来型AIでは意識は存在しない
26
https://www.jstage.jst.go.jp/article/jjsai/33/4/33_460/_pdf
リカレント型
Φは正の値
フィードフォワード(順
伝播)型
Φはゼロ
アラヤ:人工意識を通じて脳とAIの融合を目指す
27
成果例:統合情報量Φの
計算を高速化するAIの開発
脳科学研究者
(株)アラヤ創業者 金井良太氏
https://keiei.freee.co.jp/articles/i0101916
https://research.araya.org/
Mission1.意識と知能の生物学的機能と数学的基盤を理解し、その知
識を応用して、意識と知能を持つ機械を開発する。
Mission2.脳とインターネット、AI、他の脳をつなぐブレイン?マシ
ン?インターフェースを開発する。
アラヤ:AIに意識を持たせるためのアプローチ
28
意識の仮説 意識の機能 汎用AIの実現方法
情報生成理論
反実仮想的シミュ
レーション
シミュレーションを利用した
臨機応変な学習
(Solution by
Simulation)
グローバル?
ワークスペース理論
共通の潜在空間を
介した複数の機能
の接続
特定のタスクに特化した
AIの臨機応変な組み合
わせ(Solution by
Combination)
クオリアの
メタ表現理論
メタ表現の空間を用
いた機能の対象化
複数のニューラルネットの
関係性を表現した潜在
空間の作成(Solution
by Generation)
https://www.araya.org/randd/consciousness1/
各機能モジュールのマッチ
ングにアテンション機構を
応用
まとめ
? 最新AIの計算手続きや工学アプローチは、脳の内部活動が解明
されるつれてその共通点が見えつつあります。
? 知能の要素「意識」の取り組みでも、理論は登場してきました
が実証するまでが困難でした。
? AIは理論の実証ができるため、最新技法による「人工意識」へ
の取り組みが、人間の知能探求も深化しています。
29

More Related Content

生成AIでヒトの知能探究を加速化する(Accelerating the exploration of human intelligence with generative AI)