This file contains ambiguous Unicode characters that may be confused with others in your current locale. If your use case is intentional and legitimate, you can safely ignore this warning. Use the Escape button to highlight these characters.
# LLM设置
在使用提示时,您将通过API或直接与LLM进行交互。您可以配置一些参数以获得不同提示的结果。
**温度** - 简而言之,温度越低,结果就越确定,因为模型将始终选择最可能的下一个token。增加温度可能会导致更多的随机性,从而鼓励更多样化或创造性的输出。我们实际上是增加了其他可能token的权重。在应用方面,我们可能希望对于基于事实的问答等任务使用较低的温度值,以鼓励更加事实和简洁的回答。对于生成诗歌或其他创意任务,增加温度值可能会更有益。
**Top_p** - 同样,使用温度的一种采样技术称为核心采样,您可以控制模型在生成响应时的确定性。如果您正在寻找确切和事实的答案,请将其保持较低。如果您正在寻找更多样化的答案,请将其增加到较高的值。
一般建议是只更改其中一个参数。
在开始一些基本示例之前,请记住,您的结果可能会因您使用的LLM版本而异。