論文 [論文] OpenAIの動画生成AI「Sora」の論文を読む Soraとは?Soraは、OpenAIによって2024年2月にリリースされたテキストからビデオを生成するAIモデルです。Prompt: A stylish woman walks down a Tokyo street filled wit... 2024.02.29 論文
LLM [UI] OllamaとOpen WebUIを使って「Gemmaモデル」をChatGPT形式で使用する 「Gemmaモデル」をChatGPT形式で使用する手順GithubのopenwebuiのページのREADME.mdから「Open WebUIのインストールする手順」通りにOpen WebUIのインストールを行うOpen WebUIとOlla... 2024.02.23 LLM
LLM [LLM] Googleの言語モデル「Gemma」を使ってみる Gemmaモデルとは?Gemmaの概要Gemmaは、Googleの「Gemini」モデルに用いられた技術を基に開発された、軽量で最先端のオープン言語モデルファミリーです。このモデルは大規模テキストコーパスを用いて自己教師ありの方法で事前トレ... 2024.02.23 LLM
論文 [論文]Meta 社のTestGen-LLMとは? TestGen-LLMとは?論文『Automated Unit Test Improvement using Large Language Models at Meta』を読む「Metaでの大規模言語モデルを使用した自動ユニットテスト改善」... 2024.02.21 論文
論文 [論文]『A Data Science Pipeline for Algorithmic Trading: A Comparative Study of Applications for Finance and Cryptoeconomics』を読む この論文の研究について概要論文の題名の和訳:『アルゴリズム取引のためのデータサイエンスパイプライン: 金融と暗号経済学への応用の比較研究』この研究論文は、伝統的金融と暗号経済学の両方におけるアルゴリズムトレーディングの重要性を強調し、データ... 2024.02.17 論文
論文 [論文]『WORLD MODEL ON MILLION-LENGTH VIDEO AND LANGUAGE WITH RINGATTENTION』 論文の内容この研究について『WORLD MODEL ON MILLION-LENGTH VIDEO AND LANGUAGE WITH RINGATTENTION』の論文では、長いビデオと言語のシーケンスを訓練する際の課題に対処するために、... 2024.02.16 論文
論文 [論文] 『Ring Attention with Blockwise Transformers』の論文を読む Ring Attentionとは?『Ring Attention with Blockwise Transformers』は、AIモデルで長いシーケンスを効率的に処理するために、ブロック単位のAttention機構とフィードフォワード操作の... 2024.02.15 論文
LLM [OpenAI] Fine-tuningを理解する Fine-tuningとは?ファインチューニングは、大量のデータで事前に学習されたモデルを特定のタスクやデータセットに合わせて微調整するプロセスです。わかりやすく説明すると大規模言語モデルが大きすぎて対応できない場合や、大規模言語モデルの情... 2024.02.13 LLM
LLM [OpenAI] 埋め込み(Embeddings)を理解する 「埋め込み(Embeddings)」とは、テキストや他の種類のデータを数値のベクトルに変換するプロセスを指し、この変換により、高次元から低次元へデータをコンピュータがより容易に処理できる形式にすることです。「埋め込みベクトル」は、元のテキストやデータの意味的な情報を保持し、その情報を数値データとして表現します。 2024.02.10 LLM
論文 [論文] ReAct:言語モデルにおける推論と行動の相乗効果 ReActは、大規模言語モデルにおいて、推論トレースとタスク固有のアクションを組み合わせる革新的なアプローチです。この手法により、モデルは推論とアクションの能力を効果的に統合し、タスク解決においてより優れたパフォーマンスを発揮します。また、ReActはモデルの解釈可能性や信頼性を向上させ、様々な言語理解や意思決定タスクにおいて効果的に活用されています。 2024.02.09 論文