微软开发 Phi-2 2.7B 模型,轻巧高性能优于 Gemini Nano 2
▼
即使我们步入 2023 年最后阶段,生成式 AI 模型发展迅速,丝毫没有停下步伐,近日 Google Gemini 模型出尽风头,事实上微软本身也有 AI 模型的开发成果要与大众分享。
微软研究院(Microsoft Research)12 日推出 Phi-2 小型语言模型(small language models,SLMs),具有出色的推理和语言理解能力,可做为 AI 生成文字的应用程式,规模小到可搭载在笔电或行动装置上。
延续 Phi-1、Phi-1.5 分别拥有 13 亿参数,Phi-2 拥有 27 亿参数,在多项基准测试取得卓越性能,胜过其他更大的模型如 Meta Llama 2-7B、Mistral-7B。
研究人员在微软研究院部落格文章指出,Phi-2 以 96 个 NVIDIA A100 GPU,花了 14 天完成训练。尽管 Phi-2 比起 32 亿参数训练而成的 Gemini Nano 2 少了 5 亿参数,但性能可优于 Gemini Nano 2,在偏误、资料毒性(toxicity)等面向也比 Meta Llama 2 更少。
从微软提出测试结果可见,尽管 Phi-2 大小只有 Gemini Ultra 一小部分,但它能够正确回答问题,并使用相同提示纠正学生。
不过,Phi-2 存在很大局限,因为根据 Microsoft Research 制定的许可,它只能用于研究目的,不能应用在商业用途,对 Phi-2 感兴趣的开发者和企业恐怕无缘以 Phi-2 打造消费市场想要的 AI 应用程式。
- Microsoft releases Phi-2, a small language model AI that outperforms Llama 2, Mistral 7B
(首图来源:Microsoft Research)
▼
特别声明 本页内容仅供参考,版权终归原著者所有,若有侵权,请联系我们删除。