Shion

LLM

[LLM] Googleの言語モデル「Gemma」を使ってみる

Gemmaモデルとは?Gemmaの概要Gemmaは、Googleの「Gemini」モデルに用いられた技術を基に開発された、軽量で最先端のオープン言語モデルファミリーです。このモデルは大規模テキストコーパスを用いて自己教師ありの方法で事前トレ...
論文

[論文]Meta 社のTestGen-LLMとは?

TestGen-LLMとは?論文『Automated Unit Test Improvement using Large Language Models at Meta』を読む「Metaでの大規模言語モデルを使用した自動ユニットテスト改善」...
論文

[論文]『A Data Science Pipeline for Algorithmic Trading: A Comparative Study of Applications for Finance and Cryptoeconomics』を読む

この論文の研究について概要論文の題名の和訳:『アルゴリズム取引のためのデータサイエンスパイプライン: 金融と暗号経済学への応用の比較研究』この研究論文は、伝統的金融と暗号経済学の両方におけるアルゴリズムトレーディングの重要性を強調し、データ...
論文

[論文]『WORLD MODEL ON MILLION-LENGTH VIDEO AND LANGUAGE WITH RINGATTENTION』

論文の内容この研究について『WORLD MODEL ON MILLION-LENGTH VIDEO AND LANGUAGE WITH RINGATTENTION』の論文では、長いビデオと言語のシーケンスを訓練する際の課題に対処するために、...
論文

[論文] 『Ring Attention with Blockwise Transformers』の論文を読む

Ring Attentionとは?『Ring Attention with Blockwise Transformers』は、AIモデルで長いシーケンスを効率的に処理するために、ブロック単位のAttention機構とフィードフォワード操作の...
LLM

[OpenAI] Fine-tuningを理解する

Fine-tuningとは?ファインチューニングは、大量のデータで事前に学習されたモデルを特定のタスクやデータセットに合わせて微調整するプロセスです。わかりやすく説明すると大規模言語モデルが大きすぎて対応できない場合や、大規模言語モデルの情...
LLM

[OpenAI] 埋め込み(Embeddings)を理解する

「埋め込み(Embeddings)」とは、テキストや他の種類のデータを数値のベクトルに変換するプロセスを指し、この変換により、高次元から低次元へデータをコンピュータがより容易に処理できる形式にすることです。「埋め込みベクトル」は、元のテキストやデータの意味的な情報を保持し、その情報を数値データとして表現します。
論文

[論文] ReAct:言語モデルにおける推論と行動の相乗効果

ReActは、大規模言語モデルにおいて、推論トレースとタスク固有のアクションを組み合わせる革新的なアプローチです。この手法により、モデルは推論とアクションの能力を効果的に統合し、タスク解決においてより優れたパフォーマンスを発揮します。また、ReActはモデルの解釈可能性や信頼性を向上させ、様々な言語理解や意思決定タスクにおいて効果的に活用されています。
LLM

[LLM]LIamaHubをLIamaIndexを使って活用してみよう

LIamaIndexは公開されていない独自データを使って質問応答を行うチャットAIを作成でき、公開されていない情報を元に、質問に応じて回答に関連情報を検索して、それを入力プロンプトに挿入し、LLMの推論能力を利用して応答を生成します。LIamaHubはLIamaIndexで扱う、様々なファイル形式やWebサービスをドキュメントのデータソースとして利用できるデータコネクトサービスです。
音声認識

[音声認識] 文字起こしツールWhisperを使ってみよう

Whisperは会議の文字起こし、動画の文字起こし・翻訳などで出番が多いツールであり、特に海外の講義や重要な情報などを扱いたい場合は有効利用が可能です。Whisperは世界中のコミュニケーションをよりアクセスしやすくすることを可能にした革新的なツールです。