Merge pull request #365 from lowwilliam/patch-2

Update phi-2.zh.mdx
pull/375/head
Elvis Saravia 4 months ago committed by GitHub
commit 14ddbb97c9
No known key found for this signature in database
GPG Key ID: B5690EEEBB952194

@ -14,7 +14,7 @@ import PHI2CORRECTING from '../../img/phi-2/phi-2-correcting.png'
Phi-2 是由微软研究院发布的最新小型语言模型SLM。Phi-2继承了之前的Phi-1模型和Phi-1.5模型。
Phi-1 是一个拥有13亿参数的模型使用来自网络的“教科书质量”数据6B tokens以及使用GPT-3.51B tokens合成生成的教科书和练习进行训练 [Gunasekar等人2023](https://arxiv.org/abs/2306.11644)。Phi-1 在Python代码生成任务上表现出色。
Phi-1 是一个拥有13亿参数的模型使用来自网络的“教科书质量”数据6B tokens以及使用GPT-3.51B tokens合成生成的教科书和练习进行训练([Gunasekar et al. 2023](https://arxiv.org/abs/2306.11644))。Phi-1 在Python代码生成任务上表现出色。
[Phi-1.5](https://arxiv.org/abs/2309.05463) 在前一模型的基础上进行了改进并专注于常识推理和语言理解能力。Phi-1.5 能够执行复杂的推理任务如小学数学和基本编码任务并且在性能上可与和它大约5倍大小的模型相媲美。
@ -34,7 +34,7 @@ Phi-1.5 的知识被转移至 Phi-2这有助于模型在多个基准测试上
<Screenshot src={PHI2SAFETY} alt="Phi-2 Safety Performance" />
正如下图所示Phi-2 在各种基准测试上均优于 Mistral 7B 和 Llama 213B。Phi-2 甚至在多步推理任务上超过了 Llama-2-70B 模型。Phi-2 还在性能上超越了谷歌的 [Gemini Nano 2] (https://www.promptingguide.ai/models/gemini)。
正如下图所示Phi-2 在各种基准测试上均优于 Mistral 7B 和 Llama 213B。Phi-2 甚至在多步推理任务上超过了 Llama-2-70B 模型。Phi-2 还在性能上超越了谷歌的 [Google's Gemini Nano 2](https://www.promptingguide.ai/models/gemini)
<Screenshot src={PHI2PERFORMANCE} alt="Phi-2 Performance Comparison" />

Loading…
Cancel
Save