Eyeriss v1v2: A Flexible Accelerator for Emerging Deep Neural Networks on Mobile Devices

首先贴一个比较完整各个系列论文的汇总刊物:Architecture design for highly flexible and energy-efficient deep neural network accelerators

Architecture design for highly flexible and energy-efficient deep neural network accelerators​dspace.mit.edu

图标

eyerissv1, eyerissv2 是MIT提出的神经网络芯片加速方案,我们看看eyerissv2提出时的背景:

For compact design of DNN , the filter has been decomposed like below:

the current acceleration method do not efficiently match this trend .

小型网络更加的紧凑,大型卷积被分拆为多个子卷积核。

Eyeriss v2 : To deal with the widely varying layer shapes and sizes

Overall, with sparse MobileNet, Eyeriss v2 in a 65nm CMOS process achieves a throughput of 1470.6 inferences/sec and 2560.3 inferences/J at a batch size of 1, which is 12.6x faster and 2.5x more energy efficient than the original Eyeriss running MobileNet.

eyerissv2 比 v1 推理快 12.6倍,能耗小2.5倍。

在65nm的CMOS上的加速器,每秒推理mobilenet 1470次。

Challenges For Compact DNN

data resuse

在芯片推理中,为了避免数据搬运造成的耗时,数据复用是最大的挑战,复用weights, inputs ,还有psum 【psum指卷积中累乘后的累加】,上图说明了,各种网络在芯片推理中,不同层的不同数据复用率,mobilenet这样的紧凑小网络,复用率发生了变化,weights复用率基本没变,psum和input的复用率变少。【因为:模型小了,权重少了】

为了解决这个问题,在PE的组织和PE的利用率做出相应的改变。

对比来看结构变化如下:

Eyeriss v1 整体及PE结构

v1总架构图

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值