mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-18 03:25:39 +00:00
cbc37f5c7d
- Update Chinese translation of the introduction section
21 lines
2.9 KiB
Plaintext
21 lines
2.9 KiB
Plaintext
# 模型设置
|
||
|
||
使用提示词时,您会通过 API 或直接与大语言模型进行交互。你可以通过配置一些参数以获得不同的提示结果。调整这些设置对于提高响应的可靠性非常重要,你可能需要进行一些实验才能找出适合您的用例的正确设置。以下是使用不同LLM提供程序时会遇到的常见设置:
|
||
|
||
**Temperature**:简单来说,`temperature` 的参数值越小,模型就会返回越确定的一个结果。如果调高该参数值,大语言模型可能会返回更随机的结果,也就是说这可能会带来更多样化或更具创造性的产出。我们目前也在增加其他可能 token 的权重。在实际应用方面,对于质量保障(QA)等任务,我们可以设置更低的 `temperature` 值,以促使模型基于事实返回更真实和简洁的结果。 对于诗歌生成或其他创造性任务,你可以适当调高 `temperature` 参数值。
|
||
|
||
**Top_p**:同样,使用 `top_p`(与 `temperature` 一起称为核采样的技术),可以用来控制模型返回结果的真实性。如果你需要准确和事实的答案,就把参数值调低。如果你想要更多样化的答案,就把参数值调高一些。
|
||
一般建议是改变 Temperature 和 Top P 其中一个参数就行,不用两个都调整。
|
||
|
||
**Max Length**:您可以通过调整 `max length` 来控制大模型生成的 token 数。指定 Max Length 有助于防止大模型生成冗长或不相关的响应并控制成本。
|
||
|
||
**Stop Sequences**:`stop sequence` 是一个字符串,可以阻止模型生成 token,指定 `stop sequences` 是控制大模型响应长度和结构的另一种方法。例如,您可以通过添加 “11” 作为 `stop sequence` 来告诉模型生成不超过 10 个项的列表。
|
||
|
||
**Frequency Penalty**:`frequency penalty` 是对下一个生成的 token 进行惩罚,这个惩罚和 token 在响应和提示中出现的次数成比例, `frequency penalty` 越高,某个词再次出现的可能性就越小,这个设置通过给 重复数量多的 Token 设置更高的惩罚来减少响应中单词的重复。
|
||
|
||
**Presence Penalty**:`presence penalty` 也是对重复的 token 施加惩罚,但与 `frequency penalty` 不同的是,惩罚对于所有重复 token 都是相同的。出现两次的 token 和出现 10 次的 token 会受到相同的惩罚。 此设置可防止模型在响应中过于频繁地生成重复的词。 如果您希望模型生成多样化或创造性的文本,您可以设置更高的 `presence penalty`,如果您希望模型生成更专注的内容,您可以设置更低的 `presence penalty`。
|
||
|
||
与 `temperature` 和 `top_p` 一样,一般建议是改变 `frequency penalty` 和 `presence penalty` 其中一个参数就行,不要同时调整两个。
|
||
|
||
在我们开始一些基础示例之前,请记住最终生成的结果可能会和使用的大语言模型的版本而异。
|