Merge pull request #374 from giornaledisistema/giornaledisistema-patch-5

Add & update Italian translations, fixed typos
pull/375/head
Elvis Saravia 4 months ago committed by GitHub
commit febbc5a7d3
No known key found for this signature in database
GPG Key ID: B5690EEEBB952194

@ -103,4 +103,4 @@ Agente:
Mi dispiace, non ho informazioni sui tuoi interessi. Tuttavia, ecco un elenco dei film di tendenza a livello globale in questo momento: [elenco dei film]. Spero che troviate qualcosa di vostro gradimento!
```
Alcuni degli esempi sopra riportati sono stati ripresi dall'articolo ["Best practices for prompt engineering with OpenAI API"].](https://help.openai.com/en/articles/6654000-best-practices-for-prompt-engineering-with-openai-api)
Alcuni degli esempi sopra riportati sono stati ripresi dall'articolo ["Best practices for prompt engineering with OpenAI API" article.](https://help.openai.com/en/articles/6654000-best-practices-for-prompt-engineering-with-openai-api)

@ -4,9 +4,9 @@ import { Callout, FileTree } from 'nextra-theme-docs'
import {Screenshot} from 'components/screenshot'
import ACTIVE from '../../img/active-prompt.png'
I metodi della catena del pensiero (CoT) si basano su un insieme fisso di esempi annotati manualmente. Il problema è che gli esempi potrebbero non essere i più efficaci per i diversi compiti. Per ovviare a questo problema, [Diao et al., (2023)](https://arxiv.org/pdf/2302.12246.pdf) hanno recentemente proposto un nuovo approccio di prompting, chiamato Active-Prompt, per adattare i LLM a diversi prompt di esempi specifici per i vari compiti (progettati manualmente con ragionamenti CoT).
I metodi Chain-of-thought (CoT, a catena del pensiero) si basano su un insieme fisso di esempi annotati manualmente da umani. Il problema è che gli esempi potrebbero non essere i più efficaci per i diversi compiti. Per ovviare a questo problema, [Diao et al., (2023)](https://arxiv.org/pdf/2302.12246.pdf) hanno recentemente proposto un nuovo approccio di prompting chiamato Active-Prompt, per adattare i LLM a diversi prompt di esempio specifici per i vari compiti (progettati manualmente con ragionamenti CoT).
Di seguito viene illustrato l'approccio. Il primo passo consiste nell'interrogare l'LLM con o senza alcuni esempi di CoT. Vengono generate *k* possibili risposte per un insieme di domande di addestramento. Sulla base delle *k* risposte viene calcolata una metrica di incertezza (viene utilizzato il disaccordo). Le domande più incerte vengono selezionate manualmente per l'annotazione. I nuovi esemplari annotati vengono poi utilizzati per dedurre ogni domanda.
Di seguito viene illustrato l'approccio. Il primo passo consiste nell'interrogare l'LLM con o senza alcuni esempi CoT. Vengono generate *k* possibili risposte per un insieme di domande di addestramento. Sulla base delle *k* risposte viene calcolata una metrica di incertezza (viene utilizzato il disaccordo). Le domande più incerte vengono selezionate per l'annotazione manuale da parte di umani. I nuovi esempi annotati vengono poi utilizzati per dedurre ogni domanda.
<Screenshot src={ACTIVE} alt="ACTIVE" />
Sorgente immagine: [Diao et al., (2023)](https://arxiv.org/pdf/2302.12246.pdf)
Fonte immagine: [Diao et al., (2023)](https://arxiv.org/pdf/2302.12246.pdf)

@ -6,21 +6,23 @@ import APE from '../../img/APE.png'
import APECOT from '../../img/ape-zero-shot-cot.png'
<Screenshot src={APE} alt="APE" />
sorgente immagine: [Zhou et al., (2022)](https://arxiv.org/abs/2211.01910)
Fonte immagine: [Zhou et al., (2022)](https://arxiv.org/abs/2211.01910)
[Zhou et al., (2022)](https://arxiv.org/abs/2211.01910) propone automatic prompt engineer (APE), un framework per la generazione e la selezione automatica delle istruzioni. Il problema della generazione delle istruzioni viene inquadrato come sintesi del linguaggio naturale e affrontato come un problema di ottimizzazione black-box che utilizza gli LLM per generare e ricercare le soluzioni candidate.
La prima fase coinvolge un modello linguistico di grandi dimensioni (come modello di inferenza) a cui vengono fornite dimostrazioni in uscita per generare istruzioni candidate per un compito. Queste soluzioni candidate guidano la procedura di ricerca. Le istruzioni vengono eseguite utilizzando un modello di destinazione e poi viene selezionata l'istruzione più appropriata in base ai punteggi di valutazione calcolati.
La prima fase coinvolge un modello linguistico di grandi dimensioni (come un modello di inferenza) a cui vengono fornite dimostrazioni in uscita per generare istruzioni candidate ad un certo compito. Queste soluzioni candidate guideranno la procedura di ricerca. Le istruzioni vengono eseguite utilizzando un modello di destinazione e poi l'istruzione più appropriata viene selezionata in base ai punteggi di valutazione calcolati.
APE scopre un prompt di zero-shot CoT migliore del prompt "Pensiamo passo dopo passo", progettato manualmente ([Kojima et al., 2022](https://arxiv.org/abs/2205.11916)).
APE scopre un prompt zero-shot CoT migliore del prompt "Pensiamo passo dopo passo" progettato manualmente ([Kojima et al., 2022](https://arxiv.org/abs/2205.11916)).
Il prompt "Lavoriamo passo dopo passo per essere sicuri di avere la risposta giusta" suscita un ragionamento a catena e migliora le prestazioni nei benchmark MultiArith e GSM8K:
<Screenshot src={APECOT} alt="APECOT" />
sorgente immagine: [Zhou et al., (2022)](https://arxiv.org/abs/2211.01910)
Fonte immagine: [Zhou et al., (2022)](https://arxiv.org/abs/2211.01910)
Questa ricerca tratta un argomento importante legato al prompt engineering, ovvero l'idea di ottimizzare automaticamente i prompt. Anche se in questa guida non approfondiamo l'argomento, ecco alcuni documenti chiave se siete interessati all'argomento:
Questa ricerca tratta un argomento importante legato al prompt engineering, ovvero l'idea di ottimizzare automaticamente i prompt. Anche se in questa guida non approfondiamo l'argomento, ecco alcuni documenti chiave se siete interessati:
- [Prompt-OIRL](https://arxiv.org/abs/2309.06553) - propone di utilizzare l'apprendimento per rinforzo inverso offline per generare prompt dipendenti dalla query.
- [OPRO](https://arxiv.org/abs/2309.03409) - introduce l'idea di utilizzare gli LLM per ottimizzare i prompt: lasciare che gli LLM "Facciano un respiro profondo" migliora le prestazioni sui problemi matematici.
- [AutoPrompt](https://arxiv.org/abs/2010.15980) - propone un approccio per la creazione automatica di suggerimenti per una serie di compiti diversi, basato sulla ricerca guidata dal gradiente.
- [Prefix Tuning](https://arxiv.org/abs/2101.00190) - un'alternativa leggera alla sintonizzazione fine che aggiunge un prefisso continuo addestrabile per i compiti NLG.
- [Prompt Tuning](https://arxiv.org/abs/2104.08691) - propone un meccanismo per l'apprendimento di suggerimenti morbidi attraverso la retropropagazione.

@ -1,3 +1,24 @@
# Automatic Reasoning and Tool-use (ART)
# Ragionamento automatico e utilizzo di strumenti (Automatic Reasoning and Tool-use - ART)
This page needs a translation! Feel free to contribute a translation by clicking the `Edit this page` button on the right side.
import { Callout, FileTree } from 'nextra-theme-docs'
import {Screenshot} from 'components/screenshot'
import ART from '../../img/ART.png'
import ART2 from '../../img/ART2.png'
Combinare il prompting Chain of Thought (CoT) e l'uso di strumenti in modo alternato si è dimostrato un approccio forte e robusto per affrontare molti compiti con gli LLM. Questi approcci richiedono tipicamente la creazione manuale di dimostrazioni specifiche per il compito ed una programmazione attenta della combinazione dei modelli generativi con l'uso di strumenti. [Paranjape et al., (2023)](https://arxiv.org/abs/2303.09014) propongono un nuovo framework che utilizza un LLM congelato per generare automaticamente passaggi di ragionamento intermedi sotto forma di programma.
ART funziona nel modo seguente:
- dato un nuovo compito, seleziona dimostrazioni di ragionamento a più passi e l'uso di strumenti da una libreria di compiti
- al momento del test, sospende la generazione ogni volta che vengono chiamati strumenti esterni, e integra il loro output prima di riprendere la generazione
ART incoraggia il modello a generalizzare a partire dalle dimostrazioni per decomporre un nuovo compito e utilizzare strumenti nei punti appropriati, in modalità zero-shot. In aggiunta, ART è estensibile in quanto permette anche agli umani di correggere errori nei passaggi di ragionamento o aggiungere nuovi strumenti semplicemente aggiornando le librerie di compiti e strumenti. Il processo è mostrato di seguito:
<Screenshot src={ART} alt="ART" />
Fonte immagine: [Paranjape et al., (2023)](https://arxiv.org/abs/2303.09014)
ART migliora sostanzialmente rispetto al prompting few-shot ed al CoT automatico su compiti non visti in precedenza nei benchmark BigBench e MMLU, e supera le prestazioni di prompt CoT creati manualmente quando viene incorporato il feedback umano.
Di seguito è riportata una tabella che mostra le prestazioni di ART sui compiti di BigBench e MMLU:
<Screenshot src={ART2} alt="ART2" />
Fonte immagine: [Paranjape et al., (2023)](https://arxiv.org/abs/2303.09014)

@ -4,13 +4,13 @@ import { Callout, FileTree } from 'nextra-theme-docs'
import {Screenshot} from 'components/screenshot'
import DSP from '../../img/dsp.jpeg'
[Li et al., (2023)](https://arxiv.org/abs/2302.11520) propone una nuova tecnica di prompting per guidare meglio il LLM nella generazione della sintesi desiderata.
[Li et al., (2023)](https://arxiv.org/abs/2302.11520) propone una nuova tecnica di prompting per guidare meglio il LLM nella generazione del riassunto desiderato.
Per generare lo stimolo/il suggerimento viene addestrata una politica LM sintonizzabile. Si vede un maggiore uso di RL per ottimizzare i LLM.
Un LM con linea di condotta regolabile viene addestrato per generare lo stimolo/suggerimento. Si vede un maggiore uso di RL per ottimizzare gli LLM.
La figura seguente mostra come il Directional Stimulus Prompting si confronta con il prompt standard. La politica LM può essere piccola e ottimizzata per generare i suggerimenti che guidano un LLM congelato black-box.
La figura seguente mostra come il Directional Stimulus Prompting (Prompt di Stimolo Direzionale) si confronta con il prompt standard. Un LM con linea di condotta può essere piccolo e ottimizzato per generare i suggerimenti che guidano un LLM congelato black-box.
<Screenshot src={DSP} alt="DSP" />
Sorgente immagine: [Li et al., (2023)](https://arxiv.org/abs/2302.11520)
Fonte immagine: [Li et al., (2023)](https://arxiv.org/abs/2302.11520)
Esempio completo in arrivo!

@ -1,17 +1,17 @@
# PAL (Programma-Assistito di Modelli Linguistici)
# PAL (Modelli linguistici assistiti da programmi)
import { Callout, FileTree } from 'nextra-theme-docs'
import {Screenshot} from 'components/screenshot'
import PAL from '../../img/pal.png'
[Gao et al., (2022)](https://arxiv.org/abs/2211.10435) presenta un metodo che utilizza gli LLM per leggere problemi in linguaggio naturale e generare programmi come fasi intermedie del ragionamento. Denominato PAL (Program-Aided Language Model), si differenzia dal prompt della catena di pensiero perché, invece di utilizzare il testo in forma libera per ottenere la soluzione, scarica la fase di soluzione su un runtime programmatico, come un interprete Python.
[Gao et al., (2022)](https://arxiv.org/abs/2211.10435) presenta un metodo che utilizza gli LLM per leggere problemi in linguaggio naturale e generare programmi come passaggi di ragionamento intermedi. Denominato PAL (Program-Aided Language Model), si differenzia dal prompt a catena di pensiero (CoT) perché, invece di utilizzare testo in forma libera per ottenere la soluzione, delega il passo della soluzione a un runtime programmatico come un interprete Python.
<Screenshot src={PAL} alt="PAL" />
fonte immagine: [Gao et al., (2022)](https://arxiv.org/abs/2211.10435)
Fonte immagine: [Gao et al., (2022)](https://arxiv.org/abs/2211.10435)
Vediamo un esempio che utilizza LangChain e OpenAI GPT-3. Siamo interessati a sviluppare una semplice applicazione che sia in grado di interpretare la domanda posta e fornire una risposta sfruttando l'interprete Python.
In particolare, siamo interessati a creare una funzionalità che consenta di utilizzare il LLM per rispondere a domande che richiedono la comprensione dei dati. Forniremo al LLM un prompt che include alcuni esempi adottati da [qui](https://github.com/reasoning-machines/pal/blob/main/pal/prompt/date_understanding_prompt.py).
In particolare, siamo interessati a creare una funzionalità che permetta l'uso dell'LLM per rispondere a domande che richiedono la comprensione delle date. Forniremo all'LLM un prompt che include alcuni esempi adottati da [qui](https://github.com/reasoning-machines/pal/blob/main/pal/prompt/date_understanding_prompt.py).
Questi sono gli import necessari:
@ -97,6 +97,18 @@ llm_out = llm(DATE_UNDERSTANDING_PROMPT.format(question=question))
print(llm_out)
```
Si otterrà il seguente risultato:
```
# Se oggi è il 27 febbraio 2023 e io sono nato esattamente 25 anni fa, allora sono nato 25 anni prima.
today = datetime(2023, 2, 27)
# Sono nato 25 anni prima,
born = today - relativedelta(years=25)
# La risposta formattata con %m/%d/%Y è
born.strftime('%m/%d/%Y')
```
Il contenuto di `llm_out` è un frammento di codice Python. Di seguito, il comando `exec` viene utilizzato per eseguire questo frammento di codice Python.
```python
exec(llm_out)
print(born)

@ -102,4 +102,4 @@ Each of these techniques employs unique strategies to enhance or specify the int
As you can see, simplifying and create prompt chains is a useful prompting approach where the responses need to undergo several operations or transformations. As an exercise, feel free to design a prompt that removes the citations (e.g., [27]) from the response before sending this as a final response to the user of your application.
You can also find more examples of prompt chaining in this [documentation](https://docs.anthropic.com/claude/docs/prompt-chaining) that leverages the Claude LLM. Our example is inspired and adopted from their examples.
You can also find more examples of prompt chaining in this [documentation](https://docs.anthropic.com/claude/docs/prompt-chaining) that leverages the Claude LLM. Our example is inspired and adapted from their examples.

@ -79,7 +79,7 @@ Dato un insieme di citazioni rilevanti (delimitate da <quotes></quotes>) estratt
</quotes>
```
Output of Prompt 2:
Output del Prompt 2:
```
Le tecniche di prompting menzionate nel documento includono:

@ -43,6 +43,4 @@ In seguito, tutti gli esperti andranno al passo successivo, etc.
Se uno degli esperti capisce di aver sbagliato dopo essere arrivato ad un qualsiasi passo, l'esperto abbandona il gruppo.
La domanda è...
```
[Sun (2023)](https://github.com/holarissun/PanelGPT) benchmarked the Tree-of-Thought Prompting with large-scale experiments, and introduce PanelGPT --- an idea of prompting with Panel discussions among LLMs.
[Sun (2023)](https://github.com/holarissun/PanelGPT) ha effettuato un benchmark del prompt Tree-of-Thought con esperimenti su larga scala e ha introdotto PanelGPT --- un'idea di prompting con discussioni di gruppo tra gli LLM.

@ -17,7 +17,7 @@ Neutro
Si noti che nel prompt non abbiamo fornito al modello alcun esempio di testo insieme alle relative classificazioni; l'LLM capisce già il "sentiment": si tratta delle capacità zero-shot al lavoro.
La messa a punto delle istruzioni ha dimostrato di migliorare l'apprendimento zero-shot [Wei et al. (2022)](https://arxiv.org/pdf/2109.01652.pdf). La messa a punto delle istruzioni è essenzialmente il concetto di perfezionamento dei modelli su insiemi di dati descritti tramite istruzioni. Inoltre, l'[RLHF](https://arxiv.org/abs/1706.03741) (reinforcement learning from human feedback, apprendimento per rinforzo dal feedback umano) è stato adottato per scalare la sintonizzazione delle istruzioni, in cui il modello viene allineato per adattarsi meglio alle preferenze umane. Questo recente sviluppo alimenta modelli come ChatGPT. Discuteremo tutti questi approcci e metodi nelle prossime sezioni.
La messa a punto delle istruzioni ha dimostrato di migliorare l'apprendimento zero-shot [Wei et al. (2022)](https://arxiv.org/pdf/2109.01652.pdf). La messa a punto delle istruzioni è essenzialmente il concetto di perfezionamento dei modelli su insiemi di dati descritti tramite istruzioni. Inoltre, l'[RLHF](https://arxiv.org/abs/1706.03741) (reinforcement learning from human feedback, apprendimento per rinforzo dal feedback umano) è stato adottato per scalare la messa a punto delle istruzioni, in cui il modello viene allineato per adattarsi meglio alle preferenze umane. Questo recente sviluppo alimenta modelli come ChatGPT. Discuteremo tutti questi approcci e metodi nelle prossime sezioni.
Quando zero-shot non funziona, si raccomanda di fornire dimostrazioni o esempi nel prompt, il che porta al few-shot prompt. Nella prossima sezione, dimostreremo il few-shot prompt.
Quando zero-shot non funziona, si raccomanda di fornire dimostrazioni o esempi nel prompt, il che porta ai prompt few-shot. Nella prossima sezione mostreremo i prompt few-shot.

Loading…
Cancel
Save