基礎理論 LLM【Transformer:基礎理論A-6】 基礎用語集と確認問題:Transformerの理解度チェックこれまでの【Transformer:基礎理論 A-1〜A-5】で学んだ内容は、理解したつもりでも、用語が混ざるとすぐに曖昧になりやすいです。そこでこの記事では、重要用語を一覧で整理... 2026.01.26 基礎理論
基礎理論 LLM【Transformer:基礎理論A-5】 因果的Attentionマスクと自己回帰型生成:GPTの生成原理前回は、FFN と活性化関数の役割を学びました。今回は、GPT 型モデルがどの順番で単語を生成しているのかを確認しながら、その制約を支える自己回帰型生成とCausal Atte... 2026.01.26 基礎理論
基礎理論 LLM【Transformer:基礎理論A-4】 FFNと活性化関数:Transformerの知識を蓄える場所前回は、Multi-Head Attention の詳細なメカニズムを学びました。今回は、そこで拾った文脈情報をどう扱うのかという視点から、Transformer のもう1つの重要... 2026.01.22 基礎理論
基礎理論 LLM【Transformer:基礎理論A-3】 Multi-Head Attentionの詳細メカニズム:文脈理解の核心前回は、Transformerの全体構造を学びました。今回は、その心臓部であるAttentionメカニズムを詳しく解説します。ここで押さえたいのは、Attentionが... 2026.01.22 基礎理論
基礎理論 LLM【Transformer:基礎理論A-2】 Transformerモデル構造の全体像:3つの主要コンポーネント前回の記事で、言語モデルがN-gramからRNN、そしてTransformerへと進化した流れを確認しました。今回は、そのTransformerがどの部品でできているのかを、... 2026.01.20 基礎理論
基礎理論 LLM【Transformer:基礎理論A-1】 言語モデルの本質と進化軌跡:N-gramからTransformerへスマートフォンのキーボードで「私は学校へ」と入力した時、次に出現しそうな単語を予測する機能が働きます。この「次に来そうな単語を予測する能力」こそが、言語モデル(Langua... 2026.01.20 基礎理論