mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-10 01:13:36 +00:00
Update prompt_chaining.ru.mdx
This commit is contained in:
parent
5e34a50735
commit
33c6240a58
@ -55,4 +55,31 @@ Output of Prompt 1:
|
|||||||
</quotes>
|
</quotes>
|
||||||
```
|
```
|
||||||
|
|
||||||
This page needs a translation! Feel free to contribute a translation by clicking the `Edit this page` button on the right side.
|
Цитаты, возвращенные в первом промпте, теперь можно использовать в качестве входных данных для второго промпта ниже. Обратите внимание, что вы можете еще немного очистить цитаты, то есть удалить цитаты. Эти цитаты можно удалить или использовать как часть другой подсказки в цепочке, но пока мы это игнорируем.
|
||||||
|
|
||||||
|
Затем второй промпт берет соответствующие цитаты, извлеченные с помощью промпта 1, и готовит ответ на вопрос с учетом документа и извлеченных цитат. Второй промпт может быть следующим:
|
||||||
|
|
||||||
|
Output of Prompt 2:
|
||||||
|
|
||||||
|
```
|
||||||
|
The prompting techniques mentioned in the document include:
|
||||||
|
|
||||||
|
1. Chain-of-thought (CoT) prompting[27]
|
||||||
|
2. Generated knowledge prompting[37]
|
||||||
|
3. Least-to-most prompting[38]
|
||||||
|
4. Self-consistency decoding[39]
|
||||||
|
5. Complexity-based prompting[41]
|
||||||
|
6. Self-refine[42]
|
||||||
|
7. Tree-of-thought prompting[43]
|
||||||
|
8. Maieutic prompting[45]
|
||||||
|
9. Directional-stimulus prompting[46]
|
||||||
|
10. Textual inversion and embeddings[59]
|
||||||
|
11. Using gradient descent to search for prompts[61][62][63][64]
|
||||||
|
12. Prompt injection[65][66][67]
|
||||||
|
|
||||||
|
Each of these techniques employs unique strategies to enhance or specify the interactions with large language models to produce the desired outcomes.
|
||||||
|
```
|
||||||
|
|
||||||
|
Как видите, упрощение и создание цепочек промптов — это полезный подход к промптам, когда ответы необходимо подвергнуть нескольким операциям или преобразованиям. В качестве упражнения вы можете создать промпт, которая удаляет цитаты (например, [27]) из ответа, прежде чем отправлять его в качестве окончательного ответа пользователю вашего приложения.
|
||||||
|
|
||||||
|
В этой [документации](https://docs.anthropic.com/claude/docs/prompt-chaining) вы также можете найти дополнительные примеры цепочек подсказок, в которых используется Claude LLM. Наш пример вдохновлен и заимствован из их примеров.
|
||||||
|
Loading…
Reference in New Issue
Block a user