mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-06 09:20:31 +00:00
43 lines
2.3 KiB
Plaintext
43 lines
2.3 KiB
Plaintext
|
## LLaMA: Modelos de linguagem de base abertos e eficientes
|
||
|
|
||
|
<Callout emoji="⚠️">
|
||
|
Esta seção está em desenvolvimento intenso.
|
||
|
</Callout>
|
||
|
|
||
|
|
||
|
import {Screenshot} from 'components/screenshot'
|
||
|
import { Callout, FileTree } from 'nextra-theme-docs'
|
||
|
import LLAMA1 from '../../img/llama-1.png'
|
||
|
|
||
|
|
||
|
## O que há de novo?
|
||
|
|
||
|
Este artigo apresenta uma coleção de modelos de linguagem de fundação que variam de parâmetros 7B a 65B.
|
||
|
|
||
|
Os modelos são treinados em trilhões de tokens com conjuntos de dados disponíveis publicamente.
|
||
|
|
||
|
O trabalho de [(Hoffman et al. 2022)](https://arxiv.org/abs/2203.15556) mostra que, dado um orçamento de computação, modelos menores treinados em muito mais dados podem alcançar um desempenho melhor do que as contrapartes maiores. Este trabalho recomenda treinar modelos 10B em tokens 200B. No entanto, o artigo da LLaMA descobriu que o desempenho de um modelo 7B continua a melhorar mesmo após tokens 1T.
|
||
|
|
||
|
<Screenshot src={LLAMA1} alt="LLAMA1" />
|
||
|
|
||
|
Este trabalho foca em modelos de treinamento (LLaMA) que alcançam o melhor desempenho possível em vários orçamentos de inferência, treinando em mais tokens.
|
||
|
|
||
|
|
||
|
## Capacidades e Principais Resultados
|
||
|
|
||
|
No geral, o LLaMA-13B supera o GPT-3(175B) em muitos benchmarks, apesar de ser 10 vezes menor e possível de executar uma única GPU. O LLaMA 65B é competitivo com modelos como Chinchilla-70B e PaLM-540B.
|
||
|
|
||
|
|
||
|
*Papel:* [LLaMA: Open and Efficient Foundation Language Models](https://arxiv.org/abs/2302.13971)
|
||
|
|
||
|
*Código:* https://github.com/facebookresearch/llama
|
||
|
|
||
|
## Referências
|
||
|
|
||
|
- [Koala: A Dialogue Model for Academic Research](https://bair.berkeley.edu/blog/2023/04/03/koala/) (April 2023)
|
||
|
- [Baize: An Open-Source Chat Model with Parameter-Efficient Tuning on Self-Chat Data](https://arxiv.org/abs/2304.01196) (April 2023)
|
||
|
- [Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality](https://vicuna.lmsys.org/) (March 2023)
|
||
|
- [LLaMA-Adapter: Efficient Fine-tuning of Language Models with Zero-init Attention](https://arxiv.org/abs/2303.16199) (March 2023)
|
||
|
- [GPT4All](https://github.com/nomic-ai/gpt4all) (March 2023)
|
||
|
- [ChatDoctor: A Medical Chat Model Fine-tuned on LLaMA Model using Medical Domain Knowledge](https://arxiv.org/abs/2303.14070) (March 2023)
|
||
|
- [Stanford Alpaca](https://github.com/tatsu-lab/stanford_alpaca) (March 2023)
|