【论文解读】Optimizing FPGA-based Accelerator Design for Deep Convolutional Neural Networks

Optimizing FPGA-based Accelerator Design for Deep Convolutional Neural Networks

论文地址:http://cadlab.cs.ucla.edu/~cong/slides/fpga2015_chen.pdf

尽管目前FPGA加速器已经展示了相比通用处理器更好的性能,加速器设计空间并没有很好发掘。一个严重的问题是,一个FPGA平台的计算吞吐并未很好匹配内存带宽。因此,已有的方案要么未充分利用逻辑资源,要么未充分利用内存带宽,都不能获得最佳性能。同时,深度学习应用不断增加的复杂度和可扩展性让这个问题更加严重。

1. 简介

本文主要贡献如下:

* 量化分析可能解决方案的计算吞吐和所需内存带宽;

* 在计算资源和内存带宽限制下,我们用roofline模型识别所有可能的解决方案,讨论了不同层如何寻找最优解;

* 我们提出一种CNN加速器设计,对每层使用统一的循环展开因子;

* 实现了CNN加速器,获得61.62GFLOPS处理性能,是目前最优的;

2. 背景

2.1 CNN基础

img

2.2 Roofline模型

img

img

3. 加速器设计探索

3.1 设计概览

img

在FPGA平台上有这样几个设计挑战阻碍了高效的CNN加速器设计:首先,片上数据只有很小一部分,故循环分块(loop tiling)是必要的,不合适的循环分块可能降低数据重用和数据并行处理效率。

其次,PE和缓冲区组织及其互联应仔细考虑,这样能高效处理片上数据。第三,PE的数据处理吞吐应该匹配FPGA平台的片外访存带宽。

img

第一,注意到循环变量i和j并未分块,因为CNN中卷积层kernel尺寸K太小(3~11)。

第二,我们讨论了计算引擎优化并将计算性能与分块系数建立联系。

第三,我们使用数据重用技术减少外存访问,建立了计算-访存比和分块系数的联系;

第四,利用上述两个变量,我们定义了设计空间,在FPGA平台上找最优解;

第五,我们讨论了怎样为多层CNN应用选择最好的加速器。

3.2 计算优化

循环展开:用于增加海量计算资源利用率。在不同循环层次展开会产生不同实现。展开的执行单元是否共享数据以及共享到什么程度会影响生成硬件的复杂性,最终影响展开的复制品数量和硬件运行频率。某个循环维度中对一个数组的共享关系可以分为三种类型:

* 无关,如果循环变量i不出现在数组A的任何访问函数,则称相应循环维度对数组A是无关的;

* 独立,如果数组A沿着某个循环维度i是完全可分的,称i对数组A独立;

* 相关,如果数组A沿某个循环维度i不可分,称i对数组A依赖;

图6显示了不同数据共享关系时产生的硬件实现。

img

**无关:**生成广播式连接;

**独立数据共享关系:**buffer和计算引擎直接连接;

**相关:**产生带多路开关的互联;

对图5中代码分析相关性,结论如下表:

img

最终,选择too和tii两个循环维度做循环展开,从而避免生成复杂硬件拓扑。我们需要将循环嵌套次序做修改,让too和tii到最内层循环,简化HLS代码生成。生成的硬件实现如图7所示。

img

循环流水线: 是HLS里一项重要优化技术,通过将不同循环层次操作执行交叠,可提高系统吞吐。可获得的吞吐受资源和数据相关性限制。loop-carried相关性会导致循环不能完全流水线。

经过循环展开和流水线优化的代码如图所示。

img

**分块尺寸选择:**将循环结构固定后,不同循环分块尺寸变化会有巨大性能变化。代码3中有效的循环分块尺寸由公式(2)确定:

img

(注:后面4个条件是显然的,第一个是由于循环展开、流水线的要求而必须加以限制,为了获得高计算能力,必须付出增加硬件面积的代价)

给定特定分块尺寸组合(Tm, Tn, Tr, Tc),计算性能(或roofline模型中的计算上限)可以由公式(3)计算得到。从公式中看到,计算上限是Tm和Tn的函数。

img

(注:计算上限的单位是GFLOPS,也就是计算量除以耗时。公式分子为完成代码(1)的总乘、加计算量,分母为完成计算所需的时钟周期,由于使用了循环分块,所以括号内的时钟周期数目为流水线从开始到结束的总周期(+P表明类似rewind option),括号外为分块外循环次数。)

3.3 访存优化

在3.2节,我们讨论了如何衍生设计变种使用不同计算上限,假设计算引擎所有数据访问都是片上已经缓存的。但是,当考虑内存带宽限制时,高计算上限的设计变种不一定能达到更高计算上限。本节我们将展示如何通过高效数据重用降低所需通信量。

图9展示了一个CNN层的内存传输操作。输入/输出特征图和权值在计算引擎开始之前就已经载入,产生的输出特征图写回主存。

img

**本地存储提升:**如果最内层循环的通信部分(图9循环变量为ti)与某个数组是无关的,那么该循环会有冗余内存操作。本地存储提升【13】可以用于降低冗余操作。

在图9中,最内层循环ti与output_fm是无关的,所以访问output_fm的操作可以提升到外层循环。注意到提升操作可以一直执行,直到与循环变量相关。

利用该技术,对output_fm的访存需求从img降低至img

**为了数据重用而实行循环变换:**为了最大可能进行数据重用,我们使用基于多面体的优化框架来发现所有有效的循环变换。表3显示了循环层次和数组之间的数据共享关系。本地存储提升方法用到每个可能的循环调度中,尽可能减少总通信量。

img

**计算-通信比(计算强度):**用来描述每次访存的计算操作。数据重用优化会降低总的访存次数,进而提升计算-通信比。

图9代码的计算-通信比可以由公式(4)计算:

img

里面变量较多,分别表示如公式(5)~(11)

img

给定一个特定循环结构和分块尺寸组(Tm, Tn, Tr, Tc),计算-通信比可以通过上述公式计算得到。

3.4 设计空间探索

综上所述,给定(Tm, Tn, Tr, Tc),可以计算该设计的计算能力上限和计算-通信比。枚举所有可能的循环次序和分块尺寸可以产生一系列计算性能和计算-通信比对,图8(a)显示了例子CNN第5层在roofline模型中的所有有效解,X轴表示计算-通信比,或者每DRAM字节访问的浮点处理性能。Y轴表示计算性能(GFLOPS)。任意点与原点(0, 0)的连线斜率表示该实现的最低访存带宽需求。

例如,设计P的最低访存带宽需求和P’ 是相同的。

img

在图8(b)中,带宽上限线和计算上限是由特定平台决定的。在带宽上限线左侧的点需要比平台能提供的访存带宽更高,因此不可实现,即图中虽然设计A取得了最高的计算性能,但平台内存带宽不能满足该设计的需求,所以平台上可以获得的性能落到A’ 位置。

img

平台支持的设计定义为:位于带宽上限线右侧的集合。位于带宽上限线的是左侧点的投影。

我们探索平台支持最优方案的策略如下:最高性能,最高计算-通信比(这样有最小的访存需求)。该准则基于我们可以使用更少IO口,更少LUT和硬件连线,数据传输引擎有更低带宽需求。因此,点C是CNN第5层的最终选择,它的带宽需求为2.2GB/s。

3.5 多层CNN加速器设计

前几节我们讨论了如何为每个卷积层寻找最优实现参数。在CNN应用中,这些参数可能在不同层之间变化。表4显示了例子CNN中每层最优展开系数(Tm和Tn):

img

设计一个支持不同展开系数的多个卷积层的硬件加速器将会非常有挑战性,因为需要设计复杂的硬件架构来支持重配置计算引擎和互联。

一种替代方案是所有层都用同一套展开系数。我们枚举了所有可行的解来选择最优的全局设计参数。使用统一展开系数易于设计实现,但对某些层是次优解。表4表明使用统一展开系数(64, 7),性能下降不超过5%。因此我们的实验选择了这个展开系数。

枚举空间大约98,000,使用普通笔记本大约10分钟就能完成。

4. 实现细节

本节描述我们解决方案的具体实现。

4.1. 系统概述

图10 显示了我们的实现概述。

img

全部系统都放在了单个FPGA芯片,使用DDR3 DRAM用于外部存储。

MicroBlaze是一个RISC处理器软核,用于帮助CNN加速器启动,与主机CPU通信,以及计时。

AXI4lite总线用于传输命令,AXI4总线用于传输数据

CNN加速器作为AXI总线上一个IP。它从MicroBlaze接收命令和配置参数,与定制的数据传输引擎通过FIFO接口通信,该数据传输引擎可以获取通过AXI4总线外部存储。

MicroBlaze和CNN加速器使用中断机制来提供精确的计时。

4.2 计算引擎

在这里插入图片描述
图11的计算引擎部分显示了我们实现的模块图。它们是基于第三节分析结果而设计的。

二级循环展开(图2中的Tm和Tn)实现为并行执行计算引擎,使用了类似图7的树状结构。对于最优的跨层设计(Tm, Tn)=(64,7),单个引擎接收来自输入特征图的7个输入,以及7个来自权值的输入以及一个bias输入。64个复制的结构用来展开Tm。

(注:由于使用了64个相同的计算引擎,每个消耗35个dsp,有7个乘法器和7个加法器组成,每个加法器消耗2个dsp,每个乘法器消耗3个dsp)

4.3 存储子系统

片上缓冲区是基于双缓冲设计的,工作在乒乓模式来掩盖数据传输时间到计算时间中。它们一共有4组,两组用于输入特征图、权值,两组用于输出特征图。我们先介绍每个缓冲区的组织,随后介绍乒乓数据传输机制。

每个缓冲区包括几个独立的缓冲区bank,每个输入缓冲区的bank数目等于Tn(input_fm的分块尺寸)。输出缓冲区的bank数目等于Tm(output_fm的分块尺寸)。

双缓冲用于实现乒乓操作。为了简化讨论,我们使用图9的具体例子来展示乒乓操作机制。见图9中的代码。“off-load”操作只有在[N/Tn]次“load”操作后才会发生一次。但每个output_fm传输的数据量大于input_fm,比例大约为Tm/Tn = 64/7 = 9.1,为了提高带宽利用率,我们实现了两套独立通道,一个用于load操作,另一个用于off-load操作。

图12显示了计算和数据传输阶段的时序图。

img

4.4 外部数据传输引擎

使用外部数据传输引擎的目的有两个:(1)可以提供加速器和外部DRAM之间的数据传输;(2)可以隔离加速器和平台、工具相关带宽特性。

图13展示了一个实验,在Vivado 2013.4中的AXI4总线带宽。

img

两幅图中,我们设置两个参数,AXI总线到DRAM控制器的位宽,和DRAM控制器的外部带宽,在它们最高配置下单改变IP-AXI接口数目和每个IP的位宽。

在图13(a)中,增加IP-AXI接口位宽不影响带宽(400MB/s在100MHz频率下)。

在图13(b)中,更多IP接口加入AXI总线,它的带宽几乎线性增长,最高带宽大约4.5GB/s。

在我们CNN加速器设计中,最小带宽需要1.55GB/s。根据图13,4个IP接口足够用于这个设计。我们使用两个AXI-IP接口用于数据传输引擎0,两个用于数据传输引擎1,如图10所示。

5. 评估

本节首先介绍我们实验环境设置,然后提供了全面的实验结果。

5.1 实验设置

加速器设计用Vivado HLS(v2013.4)实现。该工具允许用C语言实现加速器,并导出RTL为一个Vivado IP核。CNN设计C代码通过增加HLS定义的编译向导实现并行化,并行化版本通过时序分析工具进行了验证。快速综合前仿真使用该工具的C仿真和C/RTL联合仿真完成。综合前资源报告用于设计空间探索和性能估计。导出的RTL使用Vivado v2013.4进行综合、实现。

我们的实现基于VC707板卡,有一片Xilinx FPGA芯片Virtex 7 485t。它的工作频率为100MHz,软件实现运行在Intel Xeon CPU E5-2430(@2.2GHz),15MB Cache。

5.2 实验结果

本小节我们先汇报资源占用,之后对比软件实现(CPU上)和我们的加速器实现(FPGA上)。最后,给出了我们的实现和已有FPGA实现的对比情况。

布局布线由Vivado工具集提供。之后,工具会汇报资源占用情况,如表6所示。可以看出我们的CNN加速器已经差不多完全利用了FPGA的硬件资源。

img

我们的加速器和基于软件的实现性能对比如表7所示。

img

我们选择本文提出的跨层加速器作为对比。软件在单线程和16线程使用gcc带-O3优化选项实现。我们的FPGA实现相比单线程软件实现获得了17.42x加速比,同时相比16线程软件实现获得4.8x加速比。我们的加速器总性能达到61.62GFLOPS。

图14显示了我们板卡实现图。

img

一个功率计用来测量运行时功率特性,大约18.6瓦特。CPU的热设计功率为95瓦特。因此,我们可以粗略估计软件和FPGA的功率。

表8显示了能耗相差至少24.6倍,FPGA实现消耗更少能量。

在表5中列出了已有的不同基于FPGA的CNN加速器同我们实现的对比情况。

img

之前的方法是用GMACS,而我们用GFLOPS作为性能指标。我们首次将所有结果数字表示为GOPS,实现同等对比。注意每个乘加操作包括两个整数操作。表5的第9行显示,我们的加速器具有61.62GOPS吞吐,相比其他实现至少有3.62倍加速。

由于不同工作使用了不同并行策略和不同FPGA平台,很难有一个直接对比。为了提供公平对比,我们进一步给出“性能密度”结果,定义为单位面积(每slice)的GOPS,可表示一个设计的效率而无需考虑所用的FPGA平台,最终结果如表5最后一行所示,我们的设计获得最高性能密度,比第二名高1.8倍。另外,如果使用定点计算引擎,我们的方法可以获得更好性能和性能密度,因为定点处理单元使用更少的资源(如表9所示)。

(注:定点评估有问题,加法器不需要DSP,乘法器所需资源不比浮点少)

img

6. 相关工作

本节,我们讨论不同设计方法,参考其他之前的基于FPGA的CNN加速器设计工作。

首先,很多CNN应用加速器都聚焦在优化计算引擎上。实现【6】【14】【3】是三个代表。

最早的方法【6】主要用软件搭起CNN应用,而是用一个硬件脉动结构加速器完成滤波卷积工作。这个设计省下大量硬件资源,用于自动驾驶机器人的嵌入式系统。

【14】【2】【3】在FPGA上实现了完整CNN应用,但采取了不同并行措施。【14】【2】主要利用了特征图内部卷积核的并行性。【3】使用了输出内、输出间的并行性。我们的并行方法类似,但他们并未使用片上缓冲区做数据重用,而是用很高带宽和动态重配置来提高性能。我们的实现合理进行数据重用,平衡了带宽限制和FPGA计算能力。

其次,【12】考虑了CNN的通信问题,选择最大化数据重用,将带宽需求降至最低。但他们的方法并未考虑最大化计算性能,另外当换到下一层计算时他们需要为FPGA重编程(大约10秒),而我们的方案秩序消耗不到1us来配置几个寄存器。

7. 结论

本文中,我们提出了基于roofline模型的CNN FPGA加速方法。首先优化CNN的计算和访存,之后将所有可能涉及在roofline模型下建模,为每层寻找最优解。我们通过枚举发现了最好的跨层设计。最终,我们在Xilinx VC707板卡上实现,性能优于以往的实现。

  • 9
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值