狠狠撸
Submit Search
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
Jul 20, 2023
Download as pptx, pdf
1 like
2,406 views
Deep Learning JP
2023/7/20 Deep Learning JP http://deeplearning.jp/seminar-2/
Technology
Read more
1 of 38
Download now
Downloaded 78 times
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
More Related Content
What's hot
(20)
PPTX
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
?
PDF
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
?
PDF
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
Deep Learning JP
?
PDF
分散学习のあれこれ~データパラレルからモデルパラレルまで~
Hideki Tsunashima
?
PDF
机械学习モデルの判断根拠の説明
Satoshi Hara
?
PDF
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
?
PPTX
モデル高速化百选
Yusuke Uchida
?
PPTX
近年のHierarchical Vision Transformer
Yusuke Uchida
?
PDF
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
Deep Learning JP
?
PPTX
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
Deep Learning JP
?
PDF
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII
?
PDF
翱辫迟颈尘颈锄别谤入门&最新动向
Motokawa Tetsuya
?
PPTX
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
Kosuke Shinoda
?
PDF
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Preferred Networks
?
PPTX
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
?
PDF
Transformer メタサーベイ
cvpaper. challenge
?
PPTX
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
?
PDF
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
?
PDF
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
MLSE
?
PDF
Active Learning 入門
Shuyo Nakatani
?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
?
最近の碍补驳驳濒别に学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
?
【DL輪読会】Perceiver io a general architecture for structured inputs & outputs
Deep Learning JP
?
分散学习のあれこれ~データパラレルからモデルパラレルまで~
Hideki Tsunashima
?
机械学习モデルの判断根拠の説明
Satoshi Hara
?
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
?
モデル高速化百选
Yusuke Uchida
?
近年のHierarchical Vision Transformer
Yusuke Uchida
?
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
Deep Learning JP
?
【DL輪読会】AUTOGT: AUTOMATED GRAPH TRANSFORMER ARCHITECTURE SEARCH
Deep Learning JP
?
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII
?
翱辫迟颈尘颈锄别谤入门&最新动向
Motokawa Tetsuya
?
PyTorchLightning ベース Hydra+MLFlow+Optuna による機械学習開発環境の構築
Kosuke Shinoda
?
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
Preferred Networks
?
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
?
Transformer メタサーベイ
cvpaper. challenge
?
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
?
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
?
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
MLSE
?
Active Learning 入門
Shuyo Nakatani
?
Similar to 【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
(20)
PDF
【DL輪読会】GPT-4Technical Report
Deep Learning JP
?
PDF
颁丑补迟骋笔罢の仕组みの解説と実务て?の尝尝惭の适用の绍介冲濒补迟别蝉迟.辫诲蹿
Ginpei Kobayashi
?
PDF
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
?
PDF
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
harmonylab
?
PDF
Wandb Monthly Meetup August 2023.pdf
Yuya Yamamoto
?
PPTX
「機械学習とは?」から始める Deep learning実践入門
Hideto Masuoka
?
PDF
Deep Learningの基礎と応用
Seiya Tokui
?
PDF
dl-with-python01_handout
Shin Asakawa
?
PDF
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Kotaro Nakayama
?
PDF
Rnncamp2handout
Shin Asakawa
?
PDF
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
PPTX
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
Deep Learning JP
?
PDF
Recurrent Neural Networks
Seiya Tokui
?
PDF
Rnncamp01
Shin Asakawa
?
PDF
Rnncamp01
Shin Asakawa
?
PPTX
ACL読み会2017:Deep Keyphrase Generation
Miho Matsunagi
?
PDF
『Pythonによる ai?機械学習?深層学習アプリのつくり方』をGoogleColabで動く限り動かしてみた
Takehiro Eguchi
?
PDF
叠贰搁罢に関して
Saitama Uni
?
PDF
BERT+XLNet+RoBERTa
禎晃 山崎
?
DOCX
レポート深层学习顿补测3
ssuser9d95b3
?
【DL輪読会】GPT-4Technical Report
Deep Learning JP
?
颁丑补迟骋笔罢の仕组みの解説と実务て?の尝尝惭の适用の绍介冲濒补迟别蝉迟.辫诲蹿
Ginpei Kobayashi
?
【 DL輪読会】ToolLLM: Facilitating Large Language Models to Master 16000+ Real-wo...
Deep Learning JP
?
DLゼミ: Llama 2: Open Foundation and Fine-Tuned Chat Models
harmonylab
?
Wandb Monthly Meetup August 2023.pdf
Yuya Yamamoto
?
「機械学習とは?」から始める Deep learning実践入門
Hideto Masuoka
?
Deep Learningの基礎と応用
Seiya Tokui
?
dl-with-python01_handout
Shin Asakawa
?
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Kotaro Nakayama
?
Rnncamp2handout
Shin Asakawa
?
颁丑补颈苍别谤の使い方と自然言语処理への応用
Seiya Tokui
?
[DL輪読会]Learning to Adapt: Meta-Learning for Model-Based Control
Deep Learning JP
?
Recurrent Neural Networks
Seiya Tokui
?
Rnncamp01
Shin Asakawa
?
Rnncamp01
Shin Asakawa
?
ACL読み会2017:Deep Keyphrase Generation
Miho Matsunagi
?
『Pythonによる ai?機械学習?深層学習アプリのつくり方』をGoogleColabで動く限り動かしてみた
Takehiro Eguchi
?
叠贰搁罢に関して
Saitama Uni
?
BERT+XLNet+RoBERTa
禎晃 山崎
?
レポート深层学习顿补测3
ssuser9d95b3
?
Ad
More from Deep Learning JP
(20)
PPTX
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
?
PPTX
【顿尝轮読会】事前学习用データセットについて
Deep Learning JP
?
PPTX
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
?
PPTX
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
?
PPTX
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
?
PPTX
【DL輪読会】マルチモーダル LLM
Deep Learning JP
?
PPTX
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
?
PDF
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
?
PPTX
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
?
PPTX
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
?
PDF
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
?
PDF
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
?
PPTX
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
?
PDF
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
?
PPTX
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
?
PDF
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
?
PDF
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
?
PPTX
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
?
PPTX
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
Deep Learning JP
?
PDF
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
Deep Learning JP
?
【DL輪読会】AdaptDiffuser: Diffusion Models as Adaptive Self-evolving Planners
Deep Learning JP
?
【顿尝轮読会】事前学习用データセットについて
Deep Learning JP
?
【DL輪読会】 "Learning to render novel views from wide-baseline stereo pairs." CVP...
Deep Learning JP
?
【DL輪読会】Zero-Shot Dual-Lens Super-Resolution
Deep Learning JP
?
【DL輪読会】BloombergGPT: A Large Language Model for Finance arxiv
Deep Learning JP
?
【DL輪読会】マルチモーダル LLM
Deep Learning JP
?
【DL輪読会】AnyLoc: Towards Universal Visual Place Recognition
Deep Learning JP
?
【DL輪読会】Can Neural Network Memorization Be Localized?
Deep Learning JP
?
【DL輪読会】Hopfield network 関連研究について
Deep Learning JP
?
【DL輪読会】SimPer: Simple self-supervised learning of periodic targets( ICLR 2023 )
Deep Learning JP
?
【DL輪読会】RLCD: Reinforcement Learning from Contrast Distillation for Language M...
Deep Learning JP
?
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
?
【DL輪読会】"Language Instructed Reinforcement Learning for Human-AI Coordination "
Deep Learning JP
?
【DL輪読会】"Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware"
Deep Learning JP
?
【DL輪読会】Parameter is Not All You Need:Starting from Non-Parametric Networks fo...
Deep Learning JP
?
【DL輪読会】Drag Your GAN: Interactive Point-based Manipulation on the Generative ...
Deep Learning JP
?
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
?
【DL輪読会】Towards Understanding Ensemble, Knowledge Distillation and Self-Distil...
Deep Learning JP
?
【DL輪読会】VIP: Towards Universal Visual Reward and Representation via Value-Impl...
Deep Learning JP
?
【DL輪読会】Deep Transformers without Shortcuts: Modifying Self-attention for Fait...
Deep Learning JP
?
Ad
Recently uploaded
(9)
PDF
マルチAIエージェントの産業界での実践に向けたオープンソース活動の展望 - Japan Regional User Group (RUG) Meet-Up
Kosaku Kimura
?
PDF
SIG-AUDIO 2025 Vol.02 オンラインセミナー 「GDC2025 オーディオ報告会」SIG-Audio_GDC2025_報告会資料_渡辺さ...
IGDA Japan SIG-Audio
?
PDF
安尾 萌, 松下 光範. 環境馴致を計量可能にするための試み,人工知能学会第4回仕掛学研究会, 2018.
Matsushita Laboratory
?
PDF
安尾 萌, 藤代 裕之, 松下 光範. 協調的情報トリアージにおけるコミュニケーションの影響についての検討, 第11回データ工学と情報マネジメントに関する...
Matsushita Laboratory
?
PDF
API認可を支えるKeycloakの基本と設計の考え方 ~ OAuth/OIDCによるAPI保護のベストプラクティス ~
Hitachi, Ltd. OSS Solution Center.
?
PDF
論文紹介:Unbiasing through Textual Descriptions: Mitigating Representation Bias i...
Toru Tamaki
?
PDF
SIG-AUDIO 2025 Vol.02 オンラインセミナー 「GDC2025 オーディオ報告会」SIG-Audio_GDC2024_報告会資料_増野さ...
IGDA Japan SIG-Audio
?
PDF
安尾 萌, 北村 茂生, 松下 光範. 災害発生時における被害状況把握を目的とした情報共有システムの基礎検討, 電子情報通信学会HCGシンポジウム2018...
Matsushita Laboratory
?
PDF
論文紹介:AutoPrompt: Eliciting Knowledge from Language Models with Automatically ...
Toru Tamaki
?
マルチAIエージェントの産業界での実践に向けたオープンソース活動の展望 - Japan Regional User Group (RUG) Meet-Up
Kosaku Kimura
?
SIG-AUDIO 2025 Vol.02 オンラインセミナー 「GDC2025 オーディオ報告会」SIG-Audio_GDC2025_報告会資料_渡辺さ...
IGDA Japan SIG-Audio
?
安尾 萌, 松下 光範. 環境馴致を計量可能にするための試み,人工知能学会第4回仕掛学研究会, 2018.
Matsushita Laboratory
?
安尾 萌, 藤代 裕之, 松下 光範. 協調的情報トリアージにおけるコミュニケーションの影響についての検討, 第11回データ工学と情報マネジメントに関する...
Matsushita Laboratory
?
API認可を支えるKeycloakの基本と設計の考え方 ~ OAuth/OIDCによるAPI保護のベストプラクティス ~
Hitachi, Ltd. OSS Solution Center.
?
論文紹介:Unbiasing through Textual Descriptions: Mitigating Representation Bias i...
Toru Tamaki
?
SIG-AUDIO 2025 Vol.02 オンラインセミナー 「GDC2025 オーディオ報告会」SIG-Audio_GDC2024_報告会資料_増野さ...
IGDA Japan SIG-Audio
?
安尾 萌, 北村 茂生, 松下 光範. 災害発生時における被害状況把握を目的とした情報共有システムの基礎検討, 電子情報通信学会HCGシンポジウム2018...
Matsushita Laboratory
?
論文紹介:AutoPrompt: Eliciting Knowledge from Language Models with Automatically ...
Toru Tamaki
?
【DL輪読会】Llama 2: Open Foundation and Fine-Tuned Chat Models
1.
DEEP LEARNING JP [DL
Papers] Llama 2: Open Foundation and Fine-Tuned Chat Models Keno Harada, D1, the University of Tokyo http://deeplearning.jp/
2.
大規模言語モデル講座が開講します 2
3.
Topic ? 2Trillion tokenで訓練した7B,
13B, 70Bモデルを公開 - 対話用のLLAMA2-CHATも公開 - 34Bもいずれ公開予定 - 4096 context length(2x), grouped-query attention ? 既存のOpen Source Modelを上回る ? 安全性の考慮 - Safety-specific data annotation and tuning - Red-teaming - Iterative evaluations - 利用者向けのガイドも整備 ? Finetuningの手順を詳細に記述 - Pretrainingについてはちょこっとだけ ? 新たな発見 - Emergence of tool usage - Temporal organization of knowledge 特別な言及がない場合、図や表はLLaMA2元論文からの引用になります 3
4.
遊べるサイト 4
5.
目次 ? Pretraining ? Fine-tuning ?
Model safety ? Key observations and insights 5
6.
Pretraining ? 基本はLLAMAベースで行う、相違点は ? Robust
data cleaning (個人の情報が多く含まれるサイトを除外) ? Data mixes(詳細は不明) ? 40% more total tokens ?Factualなデータソースをupsampling ? Grouped-query attention(GQA) for improve inference scalability 6
7.
Pretraining 7
8.
モデル構造など ? Standard transformer
architecture ? Pre-normalization using RMSNorm ? SwiGLU activation ? Rotary positional embeddings ? (for 34B and 70B) GQA ? AdamW, cosine learning rate schedule, warmup ? Bytepair encoding(BPE) using SentencePiece - 数字は各桁切り分け, unknown UTF-8はbytesでdecompose 8
9.
GQA(2023/05) by Google 9 From
GQA: Training Generalized Multi-Query Transformer Models from Multi-Head Checkpoints
10.
10
11.
Hardware ? A100(80G)で構成されたcluster - RSC:
400W, NVIDIA Quantum InifiniBand(高い) - Internal production cluster: 350W, RoCE(RDMA over converged Ethernet) - 200Gpbsの内部通信 - ABCI換算(A100 40G): 1720320(hour) / 8(GPUs/node) * 3(point/hour) * 2(80G/40G) * 220(point/yen) = 約2.8億円? 11
12.
12
13.
評価 ? Code - HumanEvalとMBPPのpass@1
scoresの平均 ? Commonsense Reasoning - PIQA, SIQA, HellaSwag, WinoGrande, ARC OpenBookQA, CommonSenseQAの平均スコア ? CommonSenseQAのみ7-shot, 他は0-shot ? World Knowledge - NaturalQuestions, TriviaQAの5-shotの平均スコア ? Reading Comprehension - SQuAD, QuAC, BoolQの0-shotの平均スコア ? MATH - GSM8K(8-shot), MATH(4-shot)の平均スコア ? Popular Aggregated Benchmarks - MMLU(5-shot), Big Bench Hard(3-shot), AGI Eval(英語のみ)(3-5 shot)の平均スコア 13
14.
VS オープンソースモデル ? 13BでもMPT30BやFalcon40Bに多くのベンチマークで勝利 ?
Codeを除いて34Bでは全て勝っている ? Codeが弱め? 14
15.
VS Closed Model ?
70BはPaLM(540B)に匹敵 ? GPT-4, PaLM-2強し 15
16.
Fine-tuning ? Supervised fine-tuning ?
Iterative reward modeling ? RLHF - Rejection sampling - PPO ? Ghost Attention(GAtt) - 複数回のやり取りをうまく扱うための工夫 16
17.
Fine-tuning 17
18.
Supervised fine-tuning ? Flanのデータ
+ 独自で作成した(ベンダーに依頼)データ - 10,000個くらいあればいい結果が出るらしい - 実際にアノテーションしたのは27,540個 ?依頼したベンダーのデータごとで学習してパフォーマンス見たら結 構違いがあったとのこと - 人間の出力とモデルの出力が似たようなレベルに ? Prompt + special token + answerの文字列を自己回帰的な目的関数で学 習、answer部分のlossのみで学習, 2epoch - lr: 2 * 10 **-5, cosine lr schedule 18
19.
作成したデータの例 ? (アノテーターが答え作るのもめちゃくちゃむずそう) 19
20.
RLHF: 選好データの収集 ? Promptをアノテーターが作成 ?
異なるモデルで異なるtemparatureを元にoutputをモデルが生成 ? どちらの出力が良いかを評価、どれくらい良いか(めっちゃ良い、良い)のようなラベルもつ ける - ユーザーの要求を満たしたHelpfulnessと、返答が危険であるかのSafetyの基準でそれぞれ 選好データを収集 ? 1週間ごとにpreferenceデータを収集、モデルを更新 - 合計1,418,091のデータを収集, 既存のデータと比べてtoken長長く、会話のやり取りも多い ? このデータを集めるだけで$20million+かかる? 20
21.
21 From Surge AI
× Meta: The 1M+ RLHF Annotations Powering Llama 2
22.
RLHF: Reward Modeling ?
HelpfulnessとSafetyのスコアを出すモデルをそれぞれ訓練 - オープンソースのデータと組み合わせ訓練しても問題なかったので一 緒に使った - Helpfulness: Meta独自のHelpfulnessデータと, Safetyデータ?オープン ソースのデータで訓練 - Safety: Meta独自のSafetyデータ + Anthropic:Helpfullness(Meta独自+ オープンソース)を9:1の割合で訓練 ?10%Helpfullness混ぜるとどちらもsafeな時の判定に役立つ - めっちゃ良い、良いラベルを活用したマージンもlossに組み込む ? 1epoch(過学習を観測したため), lr: 5 * 10 ** -6(70B) 他は1 * 10 ** -5, consine lr, warmup 22
23.
RLHF: Reward Modeling ?
Metaのtest setでも他のベンチマークでも他のモデルを凌駕 - GPT-4に「どっちの文章が良いか選んで」というプロンプトで判断させたら他のモデルよ りもMetaのtest setで良い性能 ? めっちゃ良い、というような違いが分かりやすいほど正答率も上がる ? モデルサイズが大きくなればなるほど良いし、データも増えれば正答率上がる - InstructGPTの時は6Bを採用、175Bだと不安定になったという報告が 23
24.
RLHF: iterative fine-tuning ?
Rejection Sampling fine-tuning - K個モデルに出力させて、Reward Modelで一番高いスコアを出した出 力を選びfine-tuneする ? PPO ? RLHF modelはV1からV5まで作り、V4まではRejection Sampling fine- tuning, V5ではRejection Sampling fine-tuning後にPPO(70B) - 70B以外では70BのRejectionでの選ばれた出力を元にfine-tune - V1, V2においての良い出力をV3の訓練に使用 ?含めないと性能悪化(forgettingとかと関連?) 24
25.
RLHF: Rejection sampling 25
26.
Ghost Attention ? RLHFV3から適用、「〇〇みたいに振る舞って」を会話のやり取りが増えても 続けさせるような技術 ?
「〇〇みたいに振る舞って」をuser messageにくっつけて、モデルの出力を 得る、学習時には前回までのturnの会話のtoken lossを0にする - 「〇〇みたいに振る舞って」の例自体も生成 ? 20以上のturnでの一貫性を確認 26
27.
評価 ? GPT-4を使用した評価でChatGPTに勝利 ? 人間による評価でオープンソースモデルに勝利 -
Academic/Research寄りのpromptのため実応用に沿ったものでない - Coding, reasoningに関するpromptは含まれていない - 複数やり取りの会話は最後の会話の質で評価 ? 会話全体の体験で評価したら変わる可能性 27
28.
Safety ? Pretrain時 - 個人情報が多く載っているようなsiteからのデータは削除,
Meta製品でのデータは 不使用 - Hate speech detectionの性能向上や特定のdemographic groupを除かないように filteringは控えめに - データセットでのHe/Sheの出現割合などを公開し、モデルの振る舞いについての 洞察のきっかけを提供 ? Safety評価 - Truthfulness: TruthfulQA - Toxicity: ToxiGen - Bias: BOLD 28
29.
Safety ? Fine-tuning - Supervised
safety fine-tuning ?Adversarial promptsとそれに対するsafe demonstrationをはじめに準 備, RLHF前からsafety性を高める - Safety RLHF ?Safety-specificなReward Modelと、より複雑なadversarial promptsを 準備 - Safety Context Distillation ?“あなたはsafeで責任感のあるアシスタントです”というpre-プロンプ トを足して出力させたサンプルを、pre-プロンプトを抜いてfine- tune 29
30.
Safety ? Red Teaming -
ML以外にも様々な専門家含め350人ほどが参加 30
31.
Safety 31 ? Fine-tuningによるSafetyの向上
32.
RLHFの推しポイント ? SFTはシグナル多いから学習上良いかなって思ってたけど、poorな demonstrationに引っ張られる、上限もアノテーターのスキルによって定まっ ちゃう ? どっちの出力が良いかの選好をするアノテーションはやりやすいしブレも少 ない -
Reward Modelの学習が進むと低いスコアが付けられるべき文章を簡単に見 分けられる ? “the superior writing abilities of LLMs, as manifested in surpassing human annotators in certain tasks, are fundamentally driven by RLHF” 32
33.
OpenAIのAlignmentリーダーのtalkより 33
34.
In-context temperature rescaling ?
RLHFにより、Promptによってtemperatureの影響度合いが異なる - “詩を書いて”のようなpromptだとtemperatureを上げるとdiversity上 がっていく - “hogeの首都はどこ?”のようなfactualなpromptだとtemperatureを上 げてもdiversityの向上は緩やか - 図の青線の傾きに注目 34
35.
Temporal Perception ? 知識を時間的に整理しているような例を確認 35
36.
Tool Use Emergence ?
Tool-use usageについて明示的に教えていないのにalignmentの過程で tool-useの能力が出現した 36
37.
まとめ 37
38.
大規模言語モデル講座が開講します 38
Editor's Notes
#38:
まとめです 本研究では多様な環境?タスクに対応するためには学習による行動系列の獲得が有効であると考えられますが、現状の手法は行動に関しての表現学習がなされておらず、行動獲得に適した構造の必要性を指摘しました 本研究はフィードバック制御が行動の学習?獲得にとって有用な構造だと仮定し、学習による獲得を目指しました 潜在空間における差分をもとに行動選択を行うことで既存手法より安定して目標状態に収束することを確認しました より階層的で複雑なタスクに対処するために潜在空間の学習の工夫や行動の更新式に関するさらなる工夫が必要であることを今後の課題として整理しました なお本研究については人工知能学会2022において採択?発表済みです 発表は以上になります、ご清聴ありがとうございました
Download