3140亿参数Grok-1推理加速3.8倍,高效易用的PyTorch+HuggingFace版来了

由马斯克旗下大模型公司 xAI 开源的 3140 亿参数的混合专家(MoE)模型「Grok-1」,是当前参数量最大的开源大语言模型,并允许自由改动分发和商用。

Grok-1一经发布便在开源社区引发广泛关注,并登上GitHub热度榜单世界第一。

图片

Grok-1使用Rust+JAX构建,对于习惯Python + PyTorch + HuggingFace等主流软件生态的用户上手门槛高。

Colossal-AI团队第一时间进行跟进,提供方便易用的Python + PyTorch + HuggingFace Grok-1供AI开发者调用。

HuggingFace下载链接

https://huggingface.co/hpcai-tech/grok-1

ModelScope下载链接

https://www.modelscope.cn/models/colossalai/grok-1-pytorch/summary

性能优化

结合Colossal-AI在AI大模型系统优化领域的丰富积累,已迅速支持对Grok-1的张量并行。

在单台8*H800 80GB服务器上,推理性能相比JAX、HuggingFace的auto device map等方法,推理时延加速近4倍

图片

使用教程

下载安装Colossal-AI后,启动推理脚本即可

./run_inference_fast.sh hpcaitech/grok-1

模型权重将会被自动下载和加载,推理结果也能保持对齐。如下图中Grok-1 greedy search的运行测试

图片

更多详情可参考grok-1使用例:

https://github.com/hpcaitech/ColossalAI/tree/main/examples/language/grok-1

Colossal-AI将在近期进一步推出对Grok-1在并行加速、量化降低显存成本等优化,欢迎持续关注。

Colossal-AI开源地址:

https://github.com/hpcaitech/ColossalAI

  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值