29. GPT-2 (Radford et al, 2019)
? 巨大なTransformer Decoderで、膨大なデータを使って言語モデル的
な学習を行ったモデル
? 翻訳や対話といった文変換モデルではなく、N-gramやRNN言語モ
デルと同じ逐次的に単語を予測していく文生成モデル
(I want to be a cat.) Sitting on Dieter's lap is a thing of
beauty.
(NLP is) not strictly true and may sometimes exaggerate.
It is necessarily an ongoing process.