論文 [論文] エネルギー効率の良いAI : 計算資源を最小限に抑える言語モデルの開発 『The Era of 1-bit LLMs : All Large Language Models are in 1.58 Bits 』を読む 論文の概要 論文は、BitNet b1.58がどのようにして従来の全精度モデルと同等の性能を、... 2024.03.01 論文
論文 [論文] OpenAIの動画生成AI「Sora」の論文を読む Soraとは? Soraは、OpenAIによって2024年2月にリリースされたテキストからビデオを生成するAIモデルです。 Prompt: A stylish woman walks down a Tokyo street filled w... 2024.02.29 論文
LLM [UI] OllamaとOpen WebUIを使って「Gemmaモデル」をChatGPT形式で使用する 「Gemmaモデル」をChatGPT形式で使用する手順 GithubのopenwebuiのページのREADME.mdから「Open WebUIのインストールする手順」通りにOpen WebUIのインストールを行う Open WebUIとOl... 2024.02.23 LLM
LLM [LLM] Googleの言語モデル「Gemma」を使ってみる Gemmaモデルとは? Gemmaの概要 Gemmaは、Googleの「Gemini」モデルに用いられた技術を基に開発された、軽量で最先端のオープン言語モデルファミリーです。 このモデルは大規模テキストコーパスを用いて自己教師ありの方法で事... 2024.02.23 LLM
論文 [論文]Meta 社のTestGen-LLMとは? TestGen-LLMとは? 論文『Automated Unit Test Improvement using Large Language Models at Meta』を読む 「Metaでの大規模言語モデルを使用した自動ユニットテスト改... 2024.02.21 論文
論文 [論文]『A Data Science Pipeline for Algorithmic Trading: A Comparative Study of Applications for Finance and Cryptoeconomics』を読む この論文の研究について 概要 論文の題名の和訳: 『アルゴリズム取引のためのデータサイエンスパイプライン: 金融と暗号経済学への応用の比較研究』 この研究論文は、伝統的金融と暗号経済学の両方におけるアルゴリズムトレーディングの重要性を強調し... 2024.02.17 論文
論文 [論文]『WORLD MODEL ON MILLION-LENGTH VIDEO AND LANGUAGE WITH RINGATTENTION』 論文の内容 この研究について 『WORLD MODEL ON MILLION-LENGTH VIDEO AND LANGUAGE WITH RINGATTENTION』の論文では、長いビデオと言語のシーケンスを訓練する際の課題に対処するため... 2024.02.16 論文
論文 [論文] 『Ring Attention with Blockwise Transformers』の論文を読む Ring Attentionとは? 『Ring Attention with Blockwise Transformers』は、AIモデルで長いシーケンスを効率的に処理するために、ブロック単位のAttention機構とフィードフォワード操作... 2024.02.15 論文
LLM [OpenAI] Fine-tuningを理解する Fine-tuningとは? ファインチューニングは、大量のデータで事前に学習されたモデルを特定のタスクやデータセットに合わせて微調整するプロセスです。わかりやすく説明すると大規模言語モデルが大きすぎて対応できない場合や、大規模言語モデルの... 2024.02.13 LLM
LLM [OpenAI] 埋め込み(Embeddings)を理解する 「埋め込み(Embeddings)」とは、テキストや他の種類のデータを数値のベクトルに変換するプロセスを指し、この変換により、高次元から低次元へデータをコンピュータがより容易に処理できる形式にすることです。「埋め込みベクトル」は、元のテキストやデータの意味的な情報を保持し、その情報を数値データとして表現します。 2024.02.10 LLM