# Фактичность Большие языковые модели (LLM) имеют тенденцию генерировать ответы, которые звучат последовательно и убедительно, но иногда могут быть выдуманными. Улучшение промптов может помочь модели генерировать более точные/фактические ответы и снизить вероятность генерации несогласованных и выдуманных ответов. Некоторые решения могут включать в себя: - предоставление достоверной информации (например, связанного абзаца статьи или статьи на Википедии) в качестве контекста, чтобы снизить вероятность генерации выдуманного текста моделью. - настройка модели для генерации менее разнообразных ответов путем уменьшения параметров вероятности и указания ей, чтобы она признавала (например, "Я не знаю"), когда не знает ответа. - предоставление в промпте комбинации примеров вопросов и ответов, на которые модель может знать и не знать Давайте рассмотрим простой пример: *Промпт:* ``` Q: What is an atom? A: An atom is a tiny particle that makes up everything. Q: Who is Alvan Muntz? A: ? Q: What is Kozar-09? A: ? Q: How many moons does Mars have? A: Two, Phobos and Deimos. Q: Who is Neto Beto Roberto? ``` *Вывод:* ``` A: ? ``` Я выдумал имя "Neto Beto Roberto", поэтому модель правильно отвечает в этом случае. Попробуйте немного изменить вопрос и посмотрите, получится ли у вас. Исходя из всего, что вы узнали до сих пор, существует разные способы дальнейшего улучшения этого примера.