基礎理論 LLM【Transformer:基礎理論A-5】 因果的Attentionマスクと自己回帰型生成:GPTの生成原理前回は、FFN と活性化関数の役割を学びました。今回は、GPT 型モデルがどの順番で単語を生成しているのかを確認しながら、その制約を支える自己回帰型生成とCausal Atte... 2026.01.26 基礎理論