深度学习框架的发展核心是跟随着深度学习领域的发展而前进的

  深度学习框架的发展核心是跟随着深度学习领域的发展而前进的。
  开源深度学习框架旷视元 MegEngine 研发负责人欣然在接受 InfoQ 采访时分享了过去这一年他所观察到的深学习的新进展:
  (1)以 ViT、Swin 为代的 Transformer 类模型开始 NLP 以外的领域进军,在更多景中展现威力让“大”模型的趋势愈演愈烈。
  相应的深度学习框架也在训练大模型方面进展颇多如 DeepSpeed+ZeRO)多种混合并行方案层出不穷无论是深度学习框架还是硬件厂商都在思考 Transformer 是否是会长期固定的计 pattern。
  (2)A100 这类显卡的诞生催生了一股从动态图回到静态图的趋势本身对动态图更友好的框架也纷尝试通过编译的方式提升效率比如 PyTorch 的 LazyTensor、Jax 的 XLA很多国产框架也在尝试通过动结合的方式提升效率比如旷视天元 MegEngine 推出的 Tensor InterpreterMindSpore 的 Python 代码转静态图的方案等。
  此外MLIR 和 TVM 这两个深度学习编译器领域的灯塔都在快速增长如何靠机器做好编译也正成为各个深度习框架研发的主要方向同时随着深度学习方法的持续发展也诞生了更多的新兴框架如图神经网络领域的 DGL。
  技术自立之路
  近两年国产深度学习框架陆续开源且发展迅速逐渐在开源框架市场占有一席之地。
  在技术研发方面国产框架不再是技术的“跟随者”的角色研发出了很多领先的创新点比如 MegEngine 的 DTR 技术OneFlow 的 SBP 并行方案和 MindSpore 的 AKG 等等此外,在功能代码质量和文档等方面都达到了很高的水准。
  在开源生态建设方面各家也都持续投入通过开源社区扶植产学研合作等方式,助力国产开源生态的发展和人才培养。
  业界现有的主流深度学习框架多来自国外大厂,目前,国内企业自研的深度学习框架还没有哪一款进阶成为国际主流的学习框架。
  许欣然坦言,国产深度学习框架在生态建设上还有很长的路要走,既需要持续投入、不断完善生态建设,也需要找到差异化的技术竞争点,充分结合我国国情和国产硬件,发挥好自身的技术优势和更好的生态洞察力。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值