You cannot select more than 25 topics Topics must start with a letter or number, can include dashes ('-') and can be up to 35 characters long.
Prompt-Engineering-Guide/pages/techniques/activeprompt.it.mdx

13 lines
1.2 KiB
Markdown

# Prompt attivo
import { Callout, FileTree } from 'nextra-theme-docs'
import {Screenshot} from 'components/screenshot'
import ACTIVE from '../../img/active-prompt.png'
I metodi Chain-of-thought (CoT, a catena del pensiero) si basano su un insieme fisso di esempi annotati manualmente da umani. Il problema è che gli esempi potrebbero non essere i più efficaci per i diversi compiti. Per ovviare a questo problema, [Diao et al., (2023)](https://arxiv.org/pdf/2302.12246.pdf) hanno recentemente proposto un nuovo approccio di prompting chiamato Active-Prompt, per adattare i LLM a diversi prompt di esempio specifici per i vari compiti (progettati manualmente con ragionamenti CoT).
Di seguito viene illustrato l'approccio. Il primo passo consiste nell'interrogare l'LLM con o senza alcuni esempi CoT. Vengono generate *k* possibili risposte per un insieme di domande di addestramento. Sulla base delle *k* risposte viene calcolata una metrica di incertezza (viene utilizzato il disaccordo). Le domande più incerte vengono selezionate per l'annotazione manuale da parte di umani. I nuovi esempi annotati vengono poi utilizzati per dedurre ogni domanda.
<Screenshot src={ACTIVE} alt="ACTIVE" />
Fonte immagine: [Diao et al., (2023)](https://arxiv.org/pdf/2302.12246.pdf)