mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-02 15:40:13 +00:00
35 lines
1.4 KiB
Plaintext
35 lines
1.4 KiB
Plaintext
# Fattualità
|
|
|
|
I LLM hanno la tendenza a generare risposte che sembrano coerenti e convincenti, ma che a volte possono essere inventate. Il miglioramento dei suggerimenti può aiutare il modello a generare risposte più accurate/fattuali e a ridurre la probabilità di generare risposte incoerenti e inventate.
|
|
|
|
Alcune soluzioni potrebbero includere
|
|
- fornire la verità di base (ad esempio, un paragrafo di un articolo correlato o una voce di Wikipedia) come parte del contesto per ridurre la probabilità che il modello produca testo inventato.
|
|
- configurare il modello in modo che produca risposte meno diversificate, diminuendo i parametri di probabilità e istruendolo ad ammettere (ad esempio, "non so") quando non conosce la risposta.
|
|
- fornire nel prompt una combinazione di esempi di domande e risposte che il modello può conoscere e non conoscere.
|
|
|
|
Vediamo un semplice esempio:
|
|
|
|
*Prompt:*
|
|
```
|
|
D: Che cos'è un atomo?
|
|
R: Un atomo è una minuscola particella che costituisce tutto.
|
|
|
|
D: Chi è Alvan Muntz?
|
|
R: ?
|
|
|
|
D: Che cos'è Kozar-09?
|
|
R: ?
|
|
|
|
D: Quante lune ha Marte?
|
|
R: Due, Phobos e Deimos.
|
|
|
|
D: Chi è Neto Beto Roberto?
|
|
```
|
|
|
|
*Output:*
|
|
```
|
|
R: ?
|
|
```
|
|
|
|
Ho inventato il nome "Neto Beto Roberto", quindi il modello è corretto in questo caso. Provate a cambiare un po' la domanda e vedete se riuscite a farla funzionare. Ci sono diversi modi per migliorare ulteriormente questo modello, basandosi su tutto ciò che avete imparato finora.
|