|
|
|
@ -131,7 +131,7 @@ _输出结果_
|
|
|
|
|
Neutral
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
我们给出了对文本进行分类的指令,语言模型做出了正确响应,判断文本类型为 `'Neutral'`。 如果我们想要语言模型以指定格式作出相应, 比如,我们想要它返回 `neutral` 而不是 `Neutral`, 那我们要如何做呢? 我们有多种方法可以实现这一点。 此例中,我们主要是关注绝对特性,因此,我们提示词中包含的信息越多,响应结果就会越好。 我们可以使用以下示例来校正响应结果:
|
|
|
|
|
我们给出了对文本进行分类的指令,语言模型做出了正确响应,判断文本类型为 `'Neutral'`。 如果我们想要语言模型以指定格式做出响应, 比如,我们想要它返回 `neutral` 而不是 `Neutral`, 那我们要如何做呢? 我们有多种方法可以实现这一点。 此例中,我们主要是关注绝对特性,因此,我们提示词中包含的信息越多,响应结果就会越好。 我们可以使用以下示例来校正响应结果:
|
|
|
|
|
|
|
|
|
|
_提示词_
|
|
|
|
|
|
|
|
|
@ -176,7 +176,7 @@ Neutral
|
|
|
|
|
|
|
|
|
|
你可以通过提示工程进行更有趣的实验,比如指导大语言模型系统如何表现,指定它的行为意图和身份。 如果你正在构建客服聊天机器人之类的对话系统时,这项功能尤其有用。
|
|
|
|
|
|
|
|
|
|
比如,可以通过以下示例创建一个对话系统,该系统能够基于问题给出技术性和科学的回答。 你可以关注我们是如何通过指令明确地告诉模型应该如何表现。 这种应用场景有时也被称为_角色提示(Role Prompting)_。
|
|
|
|
|
比如,可以通过以下示例创建一个对话系统,该系统能够基于问题给出技术性和科学的回答。 你可以关注我们是如何通过指令明确地告诉模型应该如何表现。 这种应用场景有时也被称为 _角色提示(Role Prompting)_。
|
|
|
|
|
|
|
|
|
|
_提示词_
|
|
|
|
|
|
|
|
|
|