微软发布「轻量级AI模型」Phi-3-mini,性能逼近GPT-3.5,可手机端运行

14 篇文章 0 订阅
10 篇文章 0 订阅

微软发布「轻量级AI模型」Phi-3-mini,性能逼近GPT-3.5,可手机端运行

小模型时代来了?

当地时间 4 月 23 日,微软发布了 Phi-3 系列模型,最小参数38亿,最大规模拓展到了140亿,包含3个版本,分别是Phi-3-mini-3.8B、Phi-3-small-7B 和 Phi-3-medium-14B。

在这里插入图片描述

Phi-3-mini-3.8B 是一个基于 3.3 万亿个 token 训练的 38 亿参数语言模型,在语言、推理、编码和数学基准测试中超越了众多数百亿参数规模的模型。

根据基准测试结果,Phi-3-mini 整体性能可与 Mixtral 8x7B 和 GPT-3.5 等模型相媲美,例如,Phi-3-mini 在 MMLU 上的得分率为 69%,在 MT-bench 上的得分率为 8.38。

Phi-3-mini 有4k和128k tokens两个上下文长度变体,经过预训练和指令调整,可以更好地理解人类的语言、表达、逻辑并执行不同类型的指令。

与大语言模型相比,Phi-3-mini 模型操作更为简便。该模型的体积很小,可以部署在手机上。据称,该模型可以作为聊天机器人离线访问,且具有不亚于GPT-3.5的性能。

现已在 Azure、Hugging Face 和 Ollama 上可使用。

在这里插入图片描述

图注:Phi-3-mini 与 Phi-2 、Mistral-7b-v0.1、Mixtral-8x7B、Gemma 7B、Llama-3-instruct8B 和 GPT-3.5 的比较结果

Phi-3-mini 模型虽然通过优质数据在语言理解和推理能力上媲美更大参数的 AI 模型,但在 TriviaQA 等某些任务上依然受到模型规模的限制。

Phi-3-small-7B 是新增的一个更大规模参数版本的Phi模型,参数70亿,但是tokenizer换成了tiktoken,使之有更好的多语言能力,词汇表大小也拓展到了100352,默认上下文长度是8K,模型也有分组查询注意力机制(GQA),从这个变化看,和 Llama3 的架构非常接近。

Phi-3-medium-14B 是新增的最大参数版本的Phi模型,参数140亿,架构与最小的Phi-3-mini-3.8B 相同,但是训练的epoch更多,训练的数据量和 Phi-3-small-7B 一样,4.9万亿tokens。但是这个模型 比 Phi-3-small-7B 的提升不如 Phi-3-small-7B 相比 Phi-3-mini-3.8B 提升多。作者认为可能是数据问题,所以后面他们还会改进,因此,把这个 Phi-3-medium-14B 称为preview版本。

在这里插入图片描述

Phi系列模型的目的是希望在小规模参数的模型上获得传统大模型的能力。

一起回顾下微软轻量级AI模型——Phi系列模型的发展路程:

  1. 2023年6月,微软发布了《Textbooks Are All You Need》论文,用规模仅为 7B token 的「教科书质量」数据训练 1.3B 参数的模型 Phi-1,实现了良好的性能。
  2. 2023年9月,微软让 1.3B 参数的 Transformer 架构语言模型 Phi-1.5 显示出强大的编码能力。
  3. 2023年12月,微软发布 Phi-2,参数增长到27亿,具备了一定的常识能力,在 2.7B 的量级的多个基准测试成绩超过 Llama2 7B、Llama2 13B、Mistral 7B 等一众先进模型。
  4. 2024年4月,微软发布 Phi-3,包含3个版本,参数规模增长的同时,能力也大幅提高,并表示其性能比前一版本更好,其响应速度接近比它大 10 倍的模型。

在这里插入图片描述

Phi-3 技术报告:https://arxiv.org/abs/2404.14219

目前,Phi-3系列模型只发布了论文信息,还没有预训练结果发布。

微软团队表示,Phi-3-mini 小体积、高性能的创新归功于由合成数据组成的数据集。该数据集由大量已过滤的网络数据和其他AI制作的儿童读物中的合成数据组成。

微软计划在未来几周内推出Phi-3系列的另外两个模型,分别是Phi-3-small(7B)和Phi-3-medium(14B)。

在这里插入图片描述

参考链接:

https://www.theverge.com/2024/4/23/24137534/microsoft-phi-3-launch-small-ai-language-model
https://news.ycombinator.com/item?id=40127806

欢迎各位关注我的个人微信公众号:HsuDan,我将分享更多自己的学习心得、避坑总结、面试经验、AI最新技术资讯。

  • 19
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值