基礎理論 大規模言語モデル入門【Transformer:基礎理論A-5】 因果的Attentionマスクと自己回帰型生成:GPTの生成原理前回は、FFNと活性化関数の役割を学びました。今回は、GPT型モデルがどのようにテキストを生成するのか、その核心である自己回帰型生成とCausal Attention Mask... 2026.01.26 LLM事前学習基礎理論