mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-10 01:13:36 +00:00
13 lines
1.2 KiB
Plaintext
13 lines
1.2 KiB
Plaintext
# Prompt attivo
|
|
|
|
import { Callout, FileTree } from 'nextra-theme-docs'
|
|
import {Screenshot} from 'components/screenshot'
|
|
import ACTIVE from '../../img/active-prompt.png'
|
|
|
|
I metodi Chain-of-thought (CoT, a catena del pensiero) si basano su un insieme fisso di esempi annotati manualmente da umani. Il problema è che gli esempi potrebbero non essere i più efficaci per i diversi compiti. Per ovviare a questo problema, [Diao et al., (2023)](https://arxiv.org/pdf/2302.12246.pdf) hanno recentemente proposto un nuovo approccio di prompting chiamato Active-Prompt, per adattare i LLM a diversi prompt di esempio specifici per i vari compiti (progettati manualmente con ragionamenti CoT).
|
|
|
|
Di seguito viene illustrato l'approccio. Il primo passo consiste nell'interrogare l'LLM con o senza alcuni esempi CoT. Vengono generate *k* possibili risposte per un insieme di domande di addestramento. Sulla base delle *k* risposte viene calcolata una metrica di incertezza (viene utilizzato il disaccordo). Le domande più incerte vengono selezionate per l'annotazione manuale da parte di umani. I nuovi esempi annotati vengono poi utilizzati per dedurre ogni domanda.
|
|
|
|
<Screenshot src={ACTIVE} alt="ACTIVE" />
|
|
Fonte immagine: [Diao et al., (2023)](https://arxiv.org/pdf/2302.12246.pdf)
|