面向边缘计算的嵌入式FPGA卷积神经网络的构建

面向边缘计算的嵌入式FPGA平台卷积神经网络的构建 通过设计卷积神经网络函数中的网络层间可复用的加速器核心  以减少硬件资源实现性能优化卷积神经网络硬件。

边缘计算:
克服云计算固有的问题,将应用、数据和服务从节点推向网络边缘,在靠近移动设备和数据源头,融合网络、计算、存储和应用核心能力的开放平台,就近提供服务,进而形成对云计算的有益补充,推动物联网的发展。
边缘计算具有 低延时、高可用、高实时等优势。
RTL(reister trtansfer level)寄存器传输级 流程复查、周期长、优化空间小。
设计瓶颈——高层次综合(HLS) 使用高级语言对算法进行设计,编译、语义转化、映射与布局布线等过程,将其转化为可用以精简指令集(ASIC)设计或FPGA设计的RTL语言的跨层次设计方法。
创新:
1、构建共享加速器:通过复用单元降低存储,建立cnn加速模型。保证cnn重构更好的复用基础功能函数和层功能函数。
2、引用循环切割参数:对输入输出循环切割,实现加速可扩展性。对循环重排,提高数据处理并行度。
3、对缓存数组进行分割:增加接口数量,保证吞吐率,缓存优化,利用数据流优化指令,使卷积计算与缓存数据获取并行执行,提高加速器内部的并行度。

神经网络:
卷积层:输入f 和w 组成的卷积核进行卷积
池化层:采用最大值采样或均值采样进行池化,降低输入矩阵的规模
全连接层:对输入进行线性空间转换
激活函数:对输入激励的非线性转(冲击响应(Sigmod)、非线性(Relu)、三角函数(Tanh))
网络训练:
权重和偏置数据,使用链式法则与反向传递原理,即通过损失函数对输入、输出、准确值进行评估,从而修正权重、偏置参数。 向前传播(实际应用),反向传播(训练过程),cnn构建时使用向前传播。
HLS 技术
提供了将高级编程语言直接转化为FPGA 或ASIC实现的硬件描述语言(HARDWARE DESCRIPTION LANGUAGE,HDL)的途径。在转化过程中插入编译指示指令对硬件结构进行优化 包括映射硬件寄存器、循环、接口等。

HLS新要求:
1、应用划分重构
2、硬件接口设置
3、硬件电路优化

网络构建:
通过可复用设计、可拓展设计、缓存优化、数据流优化等提高计算的并行度和资源利用率。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值