Prompt-Engineering-Guide/pages/risks/factuality.it.mdx
2023-04-13 14:38:37 +02:00

35 lines
1.4 KiB
Plaintext

# Fattualità
I LLM hanno la tendenza a generare risposte che sembrano coerenti e convincenti, ma che a volte possono essere inventate. Il miglioramento dei suggerimenti può aiutare il modello a generare risposte più accurate/fattuali e a ridurre la probabilità di generare risposte incoerenti e inventate.
Alcune soluzioni potrebbero includere
- fornire la verità di base (ad esempio, un paragrafo di un articolo correlato o una voce di Wikipedia) come parte del contesto per ridurre la probabilità che il modello produca testo inventato.
- configurare il modello in modo che produca risposte meno diversificate, diminuendo i parametri di probabilità e istruendolo ad ammettere (ad esempio, "non so") quando non conosce la risposta.
- fornire nel prompt una combinazione di esempi di domande e risposte che il modello può conoscere e non conoscere.
Vediamo un semplice esempio:
*Prompt:*
```
D: Che cos'è un atomo?
R: Un atomo è una minuscola particella che costituisce tutto.
D: Chi è Alvan Muntz?
R: ?
D: Che cos'è Kozar-09?
R: ?
D: Quante lune ha Marte?
R: Due, Phobos e Deimos.
D: Chi è Neto Beto Roberto?
```
*Output:*
```
R: ?
```
Ho inventato il nome "Neto Beto Roberto", quindi il modello è corretto in questo caso. Provate a cambiare un po' la domanda e vedete se riuscite a farla funzionare. Ci sono diversi modi per migliorare ulteriormente questo modello, basandosi su tutto ciò che avete imparato finora.