SiliconCloud上新:GLM-4-9B,通用能力超越Llama 3

47c2397b3757e1f8b1be3e4c01252eb9.png

今天,智谱发布了第四代 GLM 系列开源模型:GLM-4-9B。

GLM-4-9B 系列模型包括:基础版本 GLM-4-9B(8K)、对话版本 GLM-4-9B-Chat(128K)、超长上下文版本 GLM-4-9B-Chat-1M(1M)和多模态版本 GLM-4V-9B-Chat(8K)。GLM-4-9B 模型具备了更强大的推理性能、更长的上下文处理能力、多语言、多模态和 All Tools 等突出能力。

目前,SiliconCloud已上线GLM-4-9B-Chat开源模型。欢迎试用:

https://cloud.siliconflow.cn/models/text/chat/17885302522

注意!!!GLM-4-9B-Chat已进入“6.18购物狂欢节”福利包:“每人送3亿token”。注册即可畅玩(截止6月18日23:59):

www.siliconflow.cn/zh-cn/siliconcloud

77efdf9aadf7b1ef2337bdf900e82d73.gif

据智谱介绍,在预训练方面,他们引入了大语言模型进入数据筛选流程,最终获得了10T高质量多语言数据,数据量是ChatGLM3-6B模型的3倍以上。同时,它们采用了FP8技术进行高效的预训练,相较于第三代模型,训练效率提高了3.5倍。在有限显存的情况下,他们探索了性能的极限,并发现6B模型性能有限。因此,在考虑到大多数用户的显存大小后,他们将模型规模提升至9B,并将预训练计算量增加了5倍。

1fe20dffe550aaf935d4f2a4d5a4fca3.png

Github:https://github.com/THUDM/GLM-4

关于SiliconCloud

SiliconCloud是集合主流开源大模型的一站式云服务平台,为开发者提供更快、更便宜、更全面的模型API。

目前,SiliconCloud已上架包括GLM-4-9B-Chat、DeepSeek V2、Mixtral、Llama 3、Qwen、SDXL、InstantID在内的多种开源大语言模型、图片生成模型,支持用户自由切换符合不同应用场景的模型。同时,SiliconCloud提供开箱即用的大模型推理加速服务,为生成式AI应用带来更高效的用户体验。

75f4140909af88c8895a5d657a0d2e2c.png

真正在乎大模型推理性能和成本的开发者,绝不会错过SiliconCloud。更何况,现在还送3亿token。快试试吧:

www.siliconflow.cn/zh-cn/siliconcloud

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值