diff --git a/pages/introduction/settings.jp.mdx b/pages/introduction/settings.jp.mdx index 5db8bcc..805147b 100644 --- a/pages/introduction/settings.jp.mdx +++ b/pages/introduction/settings.jp.mdx @@ -8,7 +8,7 @@ 一般的には、両方ではなく、どちらかを変更することをお勧めします。 -**Max Length** - この値を調整により、モデルが生成するトークンの数を管理できます。長すぎるまたは関連性のない回答を防ぎ、コストを管理できます。 +**Max Length** - この値を調整することにより、モデルが生成するトークンの数を管理できます。長すぎるまたは関連性のない回答を防ぎ、コストを管理できます。 **Stop Sequences** - Stop Sequencesは、モデルがトークンを生成するのを停止する文字列です。これを指定することは、モデルの回答の長さや構造を制御するもう一つの方法です。例えば、"11"をストップシーケンスとして追加により、モデルに10項目以上のリストを生成させないように指示できます。 diff --git a/pages/techniques/knowledge.jp.mdx b/pages/techniques/knowledge.jp.mdx index 38d2103..f052a04 100644 --- a/pages/techniques/knowledge.jp.mdx +++ b/pages/techniques/knowledge.jp.mdx @@ -36,7 +36,7 @@ LLMは引き続き改良されており、より正確な予測を行うため 知識:冷たい表面に汗、呼気、および周囲の湿度から水蒸気が着陸し、冷却されて液体の微小な滴に変化して、あなたが霧として見るフィルムを形成すると、眼鏡レンズに結露が生じます。あなたのレンズは、特に外気が寒い場合、あなたの呼気に比べて比較的冷たくなります。 入力:魚は考えることができる。 -知識:魚は出現よりも知能が高い。記憶などの多くの分野で、魚の認知能力は、非人間の霊長類を含む「より高い」脊椎動物と同等またはそれ以上です。魚の長期記憶は、彼らが複雑な社会的関係を追跡するのを助けます。 +知識:魚は見かけより賢い。記憶などの多くの分野で、魚の認知能力は、非人間の霊長類を含む「より高い」脊椎動物と同等またはそれ以上です。魚の長期記憶は、彼らが複雑な社会的関係を追跡するのを助けます。 入力:一生にたくさんのタバコを吸うことの共通の影響の1つは、肺がんの発生率が高くなることです。 知識:生涯にわたり平均して1日に1本未満のタバコを吸った人は、非喫煙者に比べて肺がんで死亡するリスクが9倍高かった。一日あたり1〜10本のタバコを吸った人の中で、肺がんで死亡するリスクは、非喫煙者の約12倍高かった。 diff --git a/pages/techniques/rag.jp.mdx b/pages/techniques/rag.jp.mdx index 47d2450..889b045 100644 --- a/pages/techniques/rag.jp.mdx +++ b/pages/techniques/rag.jp.mdx @@ -9,9 +9,6 @@ import RAG from "../../img/rag.png"; Meta AI の研究者は、このような知識集約型のタスクに対処するために、[RAG(Retrieval Augmented Generation)](https://ai.meta.com/blog/retrieval-augmented-generation-streamlining-the-creation-of-intelligent-natural-language-processing-models/)と呼ばれる手法を考案しました。RAG は情報検索コンポーネントとテキスト生成モデルを組み合わせたものです RAG はファインチューニングが可能で、モデル全体の再トレーニングを必要とせず、効率的な方法で内部の知識を変更することができます。 - -Image Source: [Lewis ら (2021)](https://arxiv.org/pdf/2005.11401.pdf) - RAG は入力を受け取り、ソース(例えばウィキペディア)が与えられた関連/証拠立てる文書の集合を検索します。文書は文脈として元の入力プロンプトと連結され、最終的な出力を生成するテキストジェネレータに供給されます。これにより RAG は、事実が時間とともに変化するような状況にも適応できます。LLM のパラメトリック知識は静的であるため、これは非常に有用です。RAG は言語モデルが再学習を回避することを可能にし、検索ベースの(文章)生成によって信頼性の高い出力を生成するための最新情報へのアクセスを可能にします。 Lewis ら(2021)は、RAG のための汎用的なファインチューニングのレシピを提案しました。事前に訓練された seq2seq モデルがパラメトリックメモリとして使用され、ウィキペディアの密なベクトルインデックスが(ニューラルで事前に訓練された retriever を使用してアクセスされた)ノンパラメトリックメモリとして使用されます。以下は、このアプローチがどのように機能するかの概要です: