From 3f97c60af421f0519b2e50e3a91b3b5509411870 Mon Sep 17 00:00:00 2001 From: test-zawa Date: Tue, 5 Mar 2024 09:12:09 +0900 Subject: [PATCH] Japanese translation of the settings page has been added. --- pages/introduction/settings.jp.mdx | 10 ++++++++++ 1 file changed, 10 insertions(+) diff --git a/pages/introduction/settings.jp.mdx b/pages/introduction/settings.jp.mdx index bdfea98..5db8bcc 100644 --- a/pages/introduction/settings.jp.mdx +++ b/pages/introduction/settings.jp.mdx @@ -8,4 +8,14 @@ 一般的には、両方ではなく、どちらかを変更することをお勧めします。 +**Max Length** - この値を調整により、モデルが生成するトークンの数を管理できます。長すぎるまたは関連性のない回答を防ぎ、コストを管理できます。 + +**Stop Sequences** - Stop Sequencesは、モデルがトークンを生成するのを停止する文字列です。これを指定することは、モデルの回答の長さや構造を制御するもう一つの方法です。例えば、"11"をストップシーケンスとして追加により、モデルに10項目以上のリストを生成させないように指示できます。 + +**Frequency Penalty** - Frequency Penaltyは、そのトークンが既に回答やプロンプトに何回現れているかに比例して、次のトークンにペナルティを適用します。この値が高ければ高いほど、その単語が再び現れる可能性は低くなります。この設定は、より頻繁に現れるトークンに高いペナルティを与えることにより、モデルの回答の中の単語の繰り返しを減らします。 + +**Presence Penalty** - Presence Penaltyも頻繁に繰り返されるトークンに対するペナルティを適用しますが、Frequency Penaltyとは異なり、すべての繰り返されるトークンに対して同じペナルティが適用されます。2回現れるトークンも10回現れるトークンも同じペナルティが課されます。この設定は、モデルが頻繁に同じフレーズを繰り返すのを防ぎます。もしモデルに多様性のある、あるいは創造的なテキストを生成させたい場合は、この値を高めに設定すると良いでしょう。モデルが生成するテキストが特定のフレーズに集中しても良い場合は、低めに設定してみてください。 + +TemperatureとTop_pと同様、Frequency PenaltyとPresence Penaltyも、一般的には、両方ではなくどちらかを変更することをお勧めします。 + 基本的な例から始める前に、あなたの使っているLLMのバージョンによって結果が異なる可能性があることを予めご承知おきください。 \ No newline at end of file