mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-08 07:10:41 +00:00
43 lines
2.4 KiB
Plaintext
43 lines
2.4 KiB
Plaintext
|
## LLaMA : modèles de langage de base ouverts et efficaces
|
|||
|
|
|||
|
<Callout emoji="⚠️">
|
|||
|
Cette section est en plein développement.
|
|||
|
</Callout>
|
|||
|
|
|||
|
|
|||
|
import {Screenshot} from 'components/screenshot'
|
|||
|
import { Callout, FileTree } from 'nextra-theme-docs'
|
|||
|
import LLAMA1 from '../../img/llama-1.png'
|
|||
|
|
|||
|
|
|||
|
## Quoi de neuf?
|
|||
|
|
|||
|
Cet article présente une collection de modèles de langage de base allant des paramètres 7B à 65B.
|
|||
|
|
|||
|
Les modèles sont formés sur un billion de jetons avec des ensembles de données accessibles au public.
|
|||
|
|
|||
|
Les travaux de [(Hoffman et al. 2022)](https://arxiv.org/abs/2203.15556) montrent qu'avec un budget de calcul, des modèles plus petits entraînés sur beaucoup plus de données peuvent obtenir de meilleures performances que leurs homologues plus grands. Ce travail recommande de former des modèles 10B sur des jetons 200B. Cependant, le document LLaMA constate que les performances d'un modèle 7B continuent de s'améliorer même après les jetons 1T.
|
|||
|
|
|||
|
<Screenshot src={LLAMA1} alt="LLAMA1" />
|
|||
|
|
|||
|
Ce travail se concentre sur les modèles d'entraînement (LLaMA) qui atteignent les meilleures performances possibles à différents budgets d'inférence, en s'entraînant sur plus de jetons.
|
|||
|
|
|||
|
|
|||
|
## Capacités et résultats clés
|
|||
|
|
|||
|
Dans l'ensemble, LLaMA-13B surpasse GPT-3 (175B) sur de nombreux benchmarks malgré le fait qu'il soit 10 fois plus petit et qu'il soit possible d'exécuter un seul GPU. LLaMA 65B est compétitif avec des modèles comme Chinchilla-70B et PaLM-540B.
|
|||
|
|
|||
|
|
|||
|
*Article :* [LLaMA : modèles de langage de base ouverts et efficaces] (https://arxiv.org/abs/2302.13971)
|
|||
|
|
|||
|
*Code:* https://github.com/facebookresearch/llama
|
|||
|
|
|||
|
## Les références
|
|||
|
|
|||
|
- [Koala: A Dialogue Model for Academic Research](https://bair.berkeley.edu/blog/2023/04/03/koala/) (April 2023)
|
|||
|
- [Baize: An Open-Source Chat Model with Parameter-Efficient Tuning on Self-Chat Data](https://arxiv.org/abs/2304.01196) (April 2023)
|
|||
|
- [Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality](https://vicuna.lmsys.org/) (March 2023)
|
|||
|
- [LLaMA-Adapter: Efficient Fine-tuning of Language Models with Zero-init Attention](https://arxiv.org/abs/2303.16199) (March 2023)
|
|||
|
- [GPT4All](https://github.com/nomic-ai/gpt4all) (March 2023)
|
|||
|
- [ChatDoctor: A Medical Chat Model Fine-tuned on LLaMA Model using Medical Domain Knowledge](https://arxiv.org/abs/2303.14070) (March 2023)
|
|||
|
- [Stanford Alpaca](https://github.com/tatsu-lab/stanford_alpaca) (March 2023)
|