mirror of
https://github.com/dair-ai/Prompt-Engineering-Guide
synced 2024-11-18 03:25:39 +00:00
Merge pull request #267 from kiner-tang/kiner-tang-patch-1
Update rag.zh.mdx
This commit is contained in:
commit
a00e5da2d0
@ -11,7 +11,7 @@ Meta AI 的研究人员引入了一种叫做[检索增强生成(Retrieval Augm
|
||||
|
||||
RAG 会接受输入并检索出一组相关/支撑的文档,并给出文档的来源(例如维基百科)。这些文档作为上下文和输入的原始提示词组合,送给文本生成器得到最终的输出。这样 RAG 更加适应事实会随时间变化的情况。这非常有用,因为 LLM 的参数化知识是静态的。RAG 让语言模型不用重新训练就能够获取最新的信息,基于检索生成产生可靠的输出。
|
||||
|
||||
Lewis 等人(2021)一个通用的 RAG 微调方法。这种方法使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆(使通过神经网络预训练的检索器访问)。这种方法工作原理概况如下:
|
||||
Lewis 等人(2021)提出一个通用的 RAG 微调方法。这种方法使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆(使通过神经网络预训练的检索器访问)。这种方法工作原理概况如下:
|
||||
|
||||
<Screenshot src={RAG} alt="RAG" />
|
||||
图片援引自: [Lewis et el. (2021)](https://arxiv.org/pdf/2005.11401.pdf)
|
||||
|
Loading…
Reference in New Issue
Block a user