基礎理論 大規模言語モデル【Transformer:基礎理論A-5】 因果的Attentionマスクと自己回帰型生成:GPTの生成原理前回は、FFNと活性化関数の役割を学びました。今回は、GPT型モデルがどのようにテキストを生成するのか、その核心である自己回帰型生成とCausal Attention Mask... 2026.01.26 基礎理論
機械学習 【第10回】時系列データ解析と自然言語処理の基礎(後編) 【今回の主な内容】時系列データから言語理解まで、Transformerの可能性を探る今回のテーマは自然言語処理、時系列データ解析、音声認識における技術進化の流れと、Transformerモデルの登場が果たした革新について解説します。まず、自... 2025.02.15 ディープラーニングデータ分析プログラミング機械学習音声認識