谷歌最新力作!MoD:Transformer的动态分配计算,显著加速!

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【Mamba和Transformer】微信交流群

添加微信:CVer5555,小助手会拉你进群!

扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!

d935eb8770aa6a9eb00a44e1cf520ff8.jpeg

明敏 发自 凹非寺
转载自:量子位(QbitAI)

谷歌终于更新了Transformer架构。

最新发布的Mixture-of-Depths(MoD),改变了以往Transformer计算模式。

它通过动态分配大模型中的计算资源,跳过一些不必要计算,显著提高训练效率和推理速度。

结果显示,在等效计算量和训练时间上,MoD每次向前传播所需的计算量更小,而且后训练采样过程中步进速度提高50%

这一方法刚刚发布,就马上引发关注。

MoE风头正盛,MoD已经来后浪拍前浪了?

8b8deac5e64de522bbd61c22496663e9.png

还有人开始“算账”:

听说GPT-4 Turbo在Blackwell上提速30倍,再加上这个方法和其他各种加速,下一代生成模型可以走多远?

7131f79ce9c7ae2acde4d625077749bc.png

所以MoD如何实现?

迫使大模型关注真正重要信息

这项研究提出,现在的大模型训练和推理中,有很多计算是没必要的。

f1fbbc5be79b4a769d1a4860c0f0d451.png

比如预测下一个句子很难,但是预测句子结束的标点符号很简单。如果给它们分配同样的计算资源,那么后者明显浪费了。

573b32bebe20b4e9ab5f3514b65a3d8e.jpeg

在理想情况下, 模型应该只给需要准确预测的token分配更多计算资源。

3c7888b03eac6c24f21a3c53812c2b81.jpeg

所以研究人员提出了MoD

它在输入序列中的特定位置动态分配FLOPs(运算次数或计算资源),优化不同层次的模型深度中的分配。

通过限制给定层的自注意力和MLP计算的token数量,迫使神经网络学会主要关注真正重要的信息。

因为token数量是事先定义好的,所以这个过程使用一个已知张量大小的静态计算图,可以在时间和模型深度上动态扩展计算量。

下图右上图中的橙色部分,表示没有使用全部计算资源。

cf2584d66f9cc6633ee34e2fcb3b949a.png

这种方法在节省计算资源的同时,还能提高效率。

这些模型在等效的FLOPS和训练时间上与基线性能相匹配,但每次前向传播所需的FLOP更少,并且在训练后采样时提速50%。

对比来看,如果为每一个token生成一个概率分布,每个token根据最高概率被送去对应的“专家”,可能会导致负载不平衡。

如果反过来,这能保障负载平衡,但是可能导致某些token被过度处理或处理不足。

最后来看论文中使用的Expert-choice MoD,router输出的权重被用于确定哪些token将使用transformer亏啊计算。权重较大的token将参与计算,权重较小的token将通过残差连接绕过计算,从而解决每次向前传播的FLOPs。

88c651a80d218d2381a704b010984727.png

最后,研究团队展示了MoD在不同实验中的性能表现。

首先,他们使用相对较小的FLOP预算(6e18),以确定最佳超参数配置。

通过这些实验,作者发现MoD方法能够“拉低并向右推移”isoFLOP基线曲线,这意味着最优的MoD方法在更低的损失水平上拥有更多的参数。

3220dd7b075efd43692da1449a56b5ec.png

通过isoFLOP分析,比较6e18、2e19和1e20 FLOPs的总计算预算下的模型性能。

结果显示,在更多FLOP预算下,FLOP最优的MoD仍然比基线模型有更多的参数。

存在一些MoD变体,在步骤速度上比isoFLOP最优基线模型更快,同时实现更低的损失。这表明在训练之外,MoD的计算节省仍然有效。

894017b862916609e2e28d642bc01997.png

同时,研究团队还探讨了MoD和MoE结合的可能性——MoDE。

结果表明而这结合能提供更好的性能和更快的推理速度。

3712da272b72b20e04dfaab8dfd37d7a.png

网友:联想到了ResNet

MoD推出后马上引发了不小关注。

有人感慨,MoE还没有弄清楚呢,MoD都已经来了!

bfaec6c2cfa245025fc63ac5e9749387.png

这么高效的方法,让人马上联想到了ResNet。

d9200bb9ad96e50b3991b755477b3d36.png

不过和ResNet不同,MoD跳过连接是完全绕过层的。

ef7440ebc3d2e1a75f7b6c5bc274b479.png

还有人表示,希望这种方法是完全动态的,而不是每个层固定百分比。

8fc617e0dfa39351ee4bea53ee67b51a.png

这项研究由DeepMind和麦吉尔大学共同带来。

主要贡献者是David Raposo和Adam Santoro。

2aaf4625a245f0cd355a1f1273d3c26f.png
f3535290419a95c22f2558d7f54463cb.png

他们二人都是DeepMind的研究科学家。此前共同带来了神作《Relational inductive biases, deep learning, and graph networks》。

这篇论文目前被引次数超过3500次,论文核心定义了Inductive bias(归纳偏置)概念。

论文地址:
https://arxiv.org/abs/2404.02258

参考链接:
[1]https://twitter.com/TheSeaMouse/status/1775782800362242157
[2]https://twitter.com/_akhaliq/status/1775740222120087847

何恺明在MIT授课的课件PPT下载

在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!

CVPR 2024 论文和代码下载

在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集

Mamba和Transformer交流群成立

 
 
扫描下方二维码,或者添加微信:CVer5555,即可添加CVer小助手微信,便可申请加入CVer-Mamba和Transformer微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。
一定要备注:研究方向+地点+学校/公司+昵称(如Mamba或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

 
 
▲扫码或加微信号: CVer5555,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!

▲扫码加入星球学习
 
 
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值