diff --git a/pages/models/phi-2.zh.mdx b/pages/models/phi-2.zh.mdx index 892b533..5f1d359 100644 --- a/pages/models/phi-2.zh.mdx +++ b/pages/models/phi-2.zh.mdx @@ -14,7 +14,7 @@ import PHI2CORRECTING from '../../img/phi-2/phi-2-correcting.png' Phi-2 是由微软研究院发布的最新小型语言模型(SLM)。Phi-2继承了之前的Phi-1模型和Phi-1.5模型。 -Phi-1 是一个拥有13亿参数的模型,使用来自网络的“教科书质量”数据(6B tokens)以及使用GPT-3.5(1B tokens)合成生成的教科书和练习进行训练 [Gunasekar等人,2023](https://arxiv.org/abs/2306.11644)。Phi-1 在Python代码生成任务上表现出色。 +Phi-1 是一个拥有13亿参数的模型,使用来自网络的“教科书质量”数据(6B tokens)以及使用GPT-3.5(1B tokens)合成生成的教科书和练习进行训练([Gunasekar et al. 2023](https://arxiv.org/abs/2306.11644))。Phi-1 在Python代码生成任务上表现出色。 [Phi-1.5](https://arxiv.org/abs/2309.05463) 在前一模型的基础上进行了改进,并专注于常识推理和语言理解能力。Phi-1.5 能够执行复杂的推理任务,如小学数学和基本编码任务,并且在性能上可与和它大约5倍大小的模型相媲美。 @@ -34,7 +34,7 @@ Phi-1.5 的知识被转移至 Phi-2,这有助于模型在多个基准测试上 -正如下图所示,Phi-2 在各种基准测试上均优于 Mistral 7B 和 Llama 2(13B)。Phi-2 甚至在多步推理任务上超过了 Llama-2-70B 模型。Phi-2 还在性能上超越了谷歌的 [Gemini Nano 2] (https://www.promptingguide.ai/models/gemini)。 +正如下图所示,Phi-2 在各种基准测试上均优于 Mistral 7B 和 Llama 2(13B)。Phi-2 甚至在多步推理任务上超过了 Llama-2-70B 模型。Phi-2 还在性能上超越了谷歌的 [Google's Gemini Nano 2](https://www.promptingguide.ai/models/gemini) 。