GitHub 2800颗星,支持GPT/Transformer,字节跳动这个开源项目是怎么来的?

LightSeq是一个GPU加速的模型训练和推理引擎,专为Transformer等大模型设计,旨在平衡效率和效果。由字节跳动研发,已在GitHub上获得2800+星,应用于机器翻译、广告文案生成等领域,显著提升了模型运行速度。团队的论文在NAACL、SC22等会议上被接收,并在北大开设课程教授使用方法。
摘要由CSDN通过智能技术生成

AI 绘画、机器翻译、多轮对话……对于各类 AI 相关的功能来说,总有一个痛点,困扰着所有训模型的算法工程师们:

想要效果更好,那么 AI 模型一般都很大,耗费的算力更多不说,运行起来还更费时间;

如果希望模型小、运行快,那么效果通常不如前者好。

这就像天平的两端,算法工程师们常常需要根据不同场景和限定条件,在跑得快和效果好之间取得一个平衡。

因此,如果有一项技术可以在两者之间做好平衡,那么,它大概率会成为对业界有贡献的重要技术。

LightSeq 就是这样一项技术。

具体来说,LightSeq 是一个模型训练推理引擎,就像一个炼丹炉,Transformer/GPT/BERT 这种以体积大、效果好、但运行更耗时的 AI 模型都可以扔进去炼一炼,帮助它们提速。

而且 LightSeq 不仅可以在模型训练环节提速,让开发者更便捷的使用;也可以在推理环节提升运行速度,让各类 AI 模型更快地产出效果,降低 AI 翻译、AI 生成文字等任务的耗时,更好地服务用户。

自 2019 年开源以来,LightSeq 受到了很多机器学习从业者的欢迎,在 GitHub 上已经收获了超过 2800 颗星。

在做 LightSeq 之前,一个关于模型运行速度的问题一直让 Byte

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值