Update phi-2.zh.mdx

Make the words sound more natural to local speakers
This commit is contained in:
William Liu 2024-01-29 18:04:54 +08:00 committed by GitHub
parent fb7aaf3b1a
commit 4e32e18bdd
No known key found for this signature in database
GPG Key ID: B5690EEEBB952194

View File

@ -7,7 +7,7 @@ import PHI2PERFORMANCE from '../../img/phi-2/phi-2-performance.png'
import PHI2PHYSICS from '../../img/phi-2/phi-2-physics.png'
import PHI2CORRECTING from '../../img/phi-2/phi-2-correcting.png'
在本指南中我们将概述Phi-2 (一个拥有27亿参数的语言模型)以及如何对Phi-2进行提示以及其能力。本指南还包括与Phi-2语言模型相关的技巧、应用、局限性、重要参考文献以及额外的阅读材料。
在本指南中我们将概述Phi-2 (一个拥有27亿参数的语言模型)以及如何对Phi-2进行提示工程以及其能力。本指南还包括与Phi-2语言模型相关的技巧、应用、局限性、重要参考文献以及额外的阅读材料。
## Phi-2的介绍
@ -20,9 +20,9 @@ Phi-1 是一个拥有13亿参数的模型使用来自网络的“教科书质
Phi-2 是一个拥有27亿参数的模型提高了推理和语言理解能力。Phi-2 的性能超过了大约25倍大小的模型并且现在具有MIT许可证使其在商业环境中可用。
## 关于Phi-2的洞见与评估
## 关于Phi-2的理解与评估
LLM小型语言模型研究人员渴望探索小型语言模型是否具有类似于其大型对应物的新兴能力,以及是否存在培训技术可以帮助实现这一点。
LLM小型语言模型研究人员渴望探索小型语言模型是否具有类似于其他大型模型的能力,以及是否存在模型训练技术可以帮助实现这一点。
该模型使用“教科书质量”的数据进行训练包括1.4万亿个token并且存在多次传递其中包括合成数据集帮助模型学习常识推理和常规知识并且数据还被教育相关和高质量的网络内容增强。Phi-2 在 96 个 A100 GPU 上进行了为期 14 天的训练。没有应用额外的 RLHF 或指令调整。
@ -30,7 +30,7 @@ Phi-1.5 的知识被转移至 Phi-2这有助于模型在多个基准测试上
<Screenshot src={PHI2} alt="Phi-2 LLM Performance & Benchmarks" />
虽然该模型没有采用像 RLHF来自人类反馈的强化学习这样的特殊技术但据报道就有害性和偏见而言与之对齐的开源 Llama2-7b 相比,该模型更安全, 作者将这归因于数据策划的努力。
虽然该模型没有采用像 RLHF来自人类反馈的强化学习这样的特殊技术但据报道就有害性和偏见而言与之对应的开源 Llama2-7b 相比,该模型更安全, 作者将这归因于数据审编 (Data Curation)的努力。
<Screenshot src={PHI2SAFETY} alt="Phi-2 Safety Performance" />
@ -40,13 +40,13 @@ Phi-1.5 的知识被转移至 Phi-2这有助于模型在多个基准测试上
在下面,我们提供几个提示示例,展示了 Phi-2 模型在多个任务上的能力。
### 解决物理问题
### 利用Phi-2解决物理问题
以下示例演示了 Phi-2 解决物理问题的能力:
<Screenshot src={PHI2PHYSICS} alt="Phi-2 Physics Problem Solving" />
### 发现错误
### 利用Phi-2发现学生做题错误
以下示例演示了 Phi-2 辨别学生在解物理问题时计算错误的能力:
@ -113,7 +113,7 @@ def multiply(a,b):\n
- Phi-2 没有像其他模型那样进行指令调整,可能难以遵循指令。
- 训练数据主要是标准英语;因此,该模型可能在俚语和其他语言的指令理解方面遇到困难。
- Phi-2 也可能产生社会偏见和有害的内容。
- Phi-2 没有进行调整,往往会生成冗长的回应,有时甚至产生不相关的额外文本。作者提出这可能是由于主要来源于教科书的训练数据的性质所致。
- Phi-2 没有进行调整(tune)并且往往会生成冗长的回应,有时甚至产生不相关的额外文本。作者提出这可能是由于主要来源于教科书的训练数据的性质所致。
*图片来源: [Microsoft Research](https://www.microsoft.com/en-us/research/blog/phi-2-the-surprising-power-of-small-language-models/)*