# Factualidade Os LLMs tendem a gerar respostas que soam coerentes e convincentes, mas às vezes podem ser inventadas. Melhorar os prompts pode ajudar a melhorar o modelo para gerar respostas mais precisas/factuais e reduzir a probabilidade de gerar respostas inconsistentes e inventadas. Algumas soluções podem incluir: - fornecer informações básicas (por exemplo, parágrafo de artigo relacionado ou entrada da Wikipedia) como parte do contexto para reduzir a probabilidade de o modelo produzir texto inventado. - configurar o modelo para produzir respostas menos diversificadas diminuindo os parâmetros de probabilidade e instruindo-o a admitir (por exemplo, "não sei") quando não souber a resposta. - fornecer no prompt uma combinação de exemplos de perguntas e respostas que ele pode conhecer e não saber Vejamos um exemplo simples: *Prompt:* ``` Q: O que é um átomo? A: Um átomo é uma pequena partícula que compõe tudo. Q: Quem é Alvan Muntz? A: ? Q: O que é Kozar-09? A: ? P: Q: Quantas luas Marte tem? A: Dois, Fobos e Deimos. A: Quem é Neto Beto Roberto? ``` *Saída:* ``` A: ? ``` Inventei o nome "Neto Beto Roberto" para que o modelo fique correto neste caso. Tente mudar um pouco a pergunta e veja se consegue fazê-la funcionar. Existem diferentes maneiras de melhorar isso ainda mais com base em tudo o que você aprendeu até agora.