diff --git a/pages/models/phi-2.zh.mdx b/pages/models/phi-2.zh.mdx index 892b533..d153322 100644 --- a/pages/models/phi-2.zh.mdx +++ b/pages/models/phi-2.zh.mdx @@ -7,7 +7,7 @@ import PHI2PERFORMANCE from '../../img/phi-2/phi-2-performance.png' import PHI2PHYSICS from '../../img/phi-2/phi-2-physics.png' import PHI2CORRECTING from '../../img/phi-2/phi-2-correcting.png' -在本指南中,我们将概述Phi-2 (一个拥有27亿参数的语言模型),以及如何对Phi-2进行提示以及其能力。本指南还包括与Phi-2语言模型相关的技巧、应用、局限性、重要参考文献以及额外的阅读材料。 +在本指南中,我们将概述Phi-2 (一个拥有27亿参数的语言模型),以及如何对Phi-2进行提示工程以及其能力。本指南还包括与Phi-2语言模型相关的技巧、应用、局限性、重要参考文献以及额外的阅读材料。 ## Phi-2的介绍 @@ -20,9 +20,9 @@ Phi-1 是一个拥有13亿参数的模型,使用来自网络的“教科书质 Phi-2 是一个拥有27亿参数的模型,提高了推理和语言理解能力。Phi-2 的性能超过了大约25倍大小的模型,并且现在具有MIT许可证,使其在商业环境中可用。 -## 关于Phi-2的洞见与评估 +## 关于Phi-2的理解与评估 -LLM(小型语言模型)研究人员渴望探索小型语言模型是否具有类似于其大型对应物的新兴能力,以及是否存在培训技术可以帮助实现这一点。 +LLM(小型语言模型)研究人员渴望探索小型语言模型是否具有类似于其他大型模型的能力,以及是否存在模型训练技术可以帮助实现这一点。 该模型使用“教科书质量”的数据进行训练(包括1.4万亿个token,并且存在多次传递),其中包括合成数据集,帮助模型学习常识推理和常规知识,并且数据还被教育相关和高质量的网络内容增强。Phi-2 在 96 个 A100 GPU 上进行了为期 14 天的训练。没有应用额外的 RLHF 或指令调整。 @@ -30,7 +30,7 @@ Phi-1.5 的知识被转移至 Phi-2,这有助于模型在多个基准测试上 -虽然该模型没有采用像 RLHF(来自人类反馈的强化学习)这样的特殊技术,但据报道,就有害性和偏见而言,与之对齐的开源 Llama2-7b 相比,该模型更安全, 作者将这归因于数据策划的努力。 +虽然该模型没有采用像 RLHF(来自人类反馈的强化学习)这样的特殊技术,但据报道,就有害性和偏见而言,与之对应的开源 Llama2-7b 相比,该模型更安全, 作者将这归因于数据审编 (Data Curation)的努力。 @@ -40,13 +40,13 @@ Phi-1.5 的知识被转移至 Phi-2,这有助于模型在多个基准测试上 在下面,我们提供几个提示示例,展示了 Phi-2 模型在多个任务上的能力。 -### 解决物理问题 +### 利用Phi-2解决物理学问题 以下示例演示了 Phi-2 解决物理问题的能力: -### 发现错误 +### 利用Phi-2发现学生做题错误 以下示例演示了 Phi-2 辨别学生在解物理问题时计算错误的能力: @@ -113,7 +113,7 @@ def multiply(a,b):\n - Phi-2 没有像其他模型那样进行指令调整,可能难以遵循指令。 - 训练数据主要是标准英语;因此,该模型可能在俚语和其他语言的指令理解方面遇到困难。 - Phi-2 也可能产生社会偏见和有害的内容。 -- Phi-2 没有进行调整,往往会生成冗长的回应,有时甚至产生不相关的额外文本。作者提出这可能是由于主要来源于教科书的训练数据的性质所致。 +- Phi-2 没有进行调整(tune),并且往往会生成冗长的回应,有时甚至产生不相关的额外文本。作者提出这可能是由于主要来源于教科书的训练数据的性质所致。 *图片来源: [Microsoft Research](https://www.microsoft.com/en-us/research/blog/phi-2-the-surprising-power-of-small-language-models/)*