mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-06 09:20:31 +00:00
34 lines
2.3 KiB
Plaintext
34 lines
2.3 KiB
Plaintext
# Фактичность
|
||
|
||
Большие языковые модели (LLM) имеют тенденцию генерировать ответы, которые звучат последовательно и убедительно, но иногда могут быть выдуманными. Улучшение промптов может помочь модели генерировать более точные/фактические ответы и снизить вероятность генерации несогласованных и выдуманных ответов.
|
||
|
||
Некоторые решения могут включать в себя:
|
||
- предоставление достоверной информации (например, связанного абзаца статьи или статьи на Википедии) в качестве контекста, чтобы снизить вероятность генерации выдуманного текста моделью.
|
||
- настройка модели для генерации менее разнообразных ответов путем уменьшения параметров вероятности и указания ей, чтобы она признавала (например, "Я не знаю"), когда не знает ответа.
|
||
- предоставление в промпте комбинации примеров вопросов и ответов, на которые модель может знать и не знать
|
||
|
||
Давайте рассмотрим простой пример:
|
||
|
||
*Промпт:*
|
||
```
|
||
Q: What is an atom?
|
||
A: An atom is a tiny particle that makes up everything.
|
||
|
||
Q: Who is Alvan Muntz?
|
||
A: ?
|
||
|
||
Q: What is Kozar-09?
|
||
A: ?
|
||
|
||
Q: How many moons does Mars have?
|
||
A: Two, Phobos and Deimos.
|
||
|
||
Q: Who is Neto Beto Roberto?
|
||
```
|
||
|
||
*Вывод:*
|
||
```
|
||
A: ?
|
||
```
|
||
|
||
Я выдумал имя "Neto Beto Roberto", поэтому модель правильно отвечает в этом случае. Попробуйте немного изменить вопрос и посмотрите, получится ли у вас. Исходя из всего, что вы узнали до сих пор, существует разные способы дальнейшего улучшения этого примера. |