Prompt-Engineering-Guide/pages/introduction/settings.zh.mdx
2023-03-31 11:16:41 +08:00

12 lines
1.0 KiB
Plaintext
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

# LLM设置
在使用提示时您将通过API或直接与LLM进行交互。您可以配置一些参数以获得不同提示的结果。
**Temperature** - 简而言之温度越低结果就越确定因为模型将始终选择最可能的下一个token。增加温度可能会导致更多的随机性从而鼓励更多样化或创造性的输出。我们实际上是增加了其他可能token的权重。在应用方面我们可能希望对于基于事实的问答等任务使用较低的温度值以鼓励更加事实和简洁的回答。对于生成诗歌或其他创意任务增加温度值可能会更有益。
**Top_p** - 同样,使用温度的一种采样技术称为核心采样,您可以控制模型在生成响应时的确定性。如果您正在寻找确切和事实的答案,请将其保持较低。如果您正在寻找更多样化的答案,请将其增加到较高的值。
一般建议是只更改其中一个参数。
在开始一些基本示例之前请记住您的结果可能会因您使用的LLM版本而异。