From 99562e639d5d0d66158e783c6ad975857370bdfc Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?kiner-tang=28=E6=96=87=E8=BE=89=29?= <1127031143@qq.com> Date: Wed, 9 Aug 2023 17:45:28 +0800 Subject: [PATCH] Update rag.zh.mdx --- pages/techniques/rag.zh.mdx | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/pages/techniques/rag.zh.mdx b/pages/techniques/rag.zh.mdx index f7a5fb2..2e2108b 100644 --- a/pages/techniques/rag.zh.mdx +++ b/pages/techniques/rag.zh.mdx @@ -11,7 +11,7 @@ Meta AI 的研究人员引入了一种叫做[检索增强生成(Retrieval Augm RAG 会接受输入并检索出一组相关/支撑的文档,并给出文档的来源(例如维基百科)。这些文档作为上下文和输入的原始提示词组合,送给文本生成器得到最终的输出。这样 RAG 更加适应事实会随时间变化的情况。这非常有用,因为 LLM 的参数化知识是静态的。RAG 让语言模型不用重新训练就能够获取最新的信息,基于检索生成产生可靠的输出。 -Lewis 等人(2021)一个通用的 RAG 微调方法。这种方法使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆(使通过神经网络预训练的检索器访问)。这种方法工作原理概况如下: +Lewis 等人(2021)提出一个通用的 RAG 微调方法。这种方法使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆(使通过神经网络预训练的检索器访问)。这种方法工作原理概况如下: 图片援引自: [Lewis et el. (2021)](https://arxiv.org/pdf/2005.11401.pdf)