通义千问发布 Qwen1.5-110B 首款超 1000 亿参数模型

近日,通义千问发布了 Qwen1.5-110B 模型,这是 Qwen1.5 系列中的新成员,也是该系列中首个参数超过 1000 亿的模型。

该模型在基础模型评估中表现出色,可与 Meta-Llama3-70B 相媲美。在聊天模型评估(包括 MT-Bench 和 AlpacaEval 2.0)中也展现出了优异的性能。

42ad2755ecbf7a4981e214ba209065aa.jpeg

Qwen1.5-110B 模型支持多语言,包括英语、中文、法语、西班牙语等,其上下文长度可达 32K 令牌。

该模型具有以下特性:

  • 架构
  • :采用 Transformer 解码器架构,具有分组查询注意力(GQA)。
  • 性能
  • :在标准评估和聊天模型评估中均表现卓越。
  • 多语言支持
  • :支持多种语言,上下文长度可达 32K 令牌。 根据官方公布的评测结果,Qwen1.5-110B 模型的评测结果略略超过 Llama-3-70B 和 Mixtral-8×22B。在综合理解(MMLU)、数学推理(GSM8K 和 MATH)方面,Qwen1.5-110B 模型的得分比 Llama-3-70B 略高一点点,是几个模型中最强的。而在复杂推理任务 ARC-C 上则略低于 Mixtral-8×22B 模型。在编程测试 HumanEval 得分上,Qwen1.5-110B 模型远超另几个模型,但在 MBPP 编程测试上则低于 Mixtral-8×22B 模型。

edc23b6108f92b26345a76ab1c980d24.jpeg

可以看出,Qwen1.5-110B 模型在性能和多语言支持方面都具有显著优势,为人工智能领域的发展带来了新的突破。这也让我们对未来的人工智能应用充满期待。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

文浩Marvin

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值