NPU
文章平均质量分 84
神经网络加速
tiaozhanzhe1900
FPGA
展开
-
文献阅读(15)Griffin
本篇论文最大的贡献我认为是用统一的表示方法规范表示了各种稀疏计算的类型,并针对不同稀疏计算类型确定硬件overhead,从而实现设计探索。原创 2023-12-15 13:07:19 · 122 阅读 · 0 评论 -
文献阅读(11)FlexFlow
文章目录1 introduction2 method2.1 输入复用Input Reuse(IR)2.2 输出复用Output Reuse(OR)题目:Deep Convolutional Neural Network Architecture With Reconfigurable Computation Patterns时间:2017期刊: TVLSI研究机构:清华大学1 introduction本篇论文的主要贡献:DNA can reconfigure its data paths原创 2022-04-30 11:56:39 · 520 阅读 · 0 评论 -
文献阅读(20)NPE OPU
文章目录1 introduction题目:NPE: An FPGA-based Overlay Processor for Natural Language Processing时间:2021会议:FPGA研究机构:UCLA1 introductionMotivation:传统的DNN加速器能够加速的一个重要原因是计算位宽低,但transformer有很多非线性单元,数据精度更高,二者形成矛盾针对transformer的定制化硬件加速性能好,但灵活性不够,满足不了算法变更的需求本篇原创 2022-04-22 20:30:50 · 108 阅读 · 0 评论 -
文献阅读(8)GANPU
文章目录1 缩写 & 引用2 整体架构3 多DNN负载分配策略4 稀疏性5 NoC架构题目:GANPU: A 135TFLOPS/W Multi-DNN Training Processor for GANs with Speculative Dual-Sparsity Exploitation时间:2020会议:ISSCC研究机构:KAIST参考博客:https://blog.csdn.net/darknessdarkness/article/details/1044361501原创 2022-01-17 20:39:58 · 239 阅读 · 0 评论 -
文献阅读(35)2022 Transformer加速器
文章目录1 introduction2 methods2.1 softmax题目:I-BERT: Integer-only BERT Quantization时间:2021会议:Proceedings of the 38th International Conference on Machine Learning, PMLR研究机构:UCBGithub:https://github.com/kssteven418/I-BERT1 introduction本篇论文的主要贡献:针对Trans原创 2022-01-11 00:02:08 · 423 阅读 · 0 评论 -
文献阅读(31)2021加速器
文章目录1 introduction题目:A Reconfigurable Neural Network Processor With Tile-Grained Multicore Pipeline for Object Detection on FPGA时间:2021会议:TVLSI研究机构:西邮1 introduction本篇论文的主要贡献:流水线多核处理架构,可调整多核互连,以提高可重构计算资源的利用率动态配置地址以提高片上存储的利用率类似近存计算的跨层特征融合流水线任务调度原创 2021-10-07 15:12:34 · 210 阅读 · 0 评论 -
文献阅读(24)PNN
文章目录1 introduction & 缩写题目:A Pipelined Point Cloud Based Neural Network Processor for 3-D Vision With Large-Scale Max Pooling Layer Prediction时间:2021期刊:JSSC研究机构:KAIST1 introduction & 缩写SG: Sampling-GroupingBQ: ball query本篇论文的主要贡献:利用流水线原创 2021-09-09 13:06:20 · 118 阅读 · 0 评论 -
文献笔记(32)2020软硬件协同优化
文章目录1 introduction2 硬件架构3 实验结果1 introduction1 introduction题目:High Performance CNN Accelerators Based on Hardware and Algorithm Co-Optimization时间:2020期刊:TCAS-1研究机构:南大1 introduction本篇论文的主要贡献:软硬件协同优化网络压缩:将网络层分成两种:不剪枝的层与剪枝的层,剪枝的层网络压缩率较高,不剪枝的层取数比较规则剪原创 2021-04-17 16:09:23 · 638 阅读 · 0 评论 -
文献阅读(10)BNN
文章目录1 introduction1 abstract & introduction2 方法1 abstract & introduction1 abstract & introduction题目:ShiftAddNet: A Hardware-Inspired Deep Network时间:2020会议:NIPS研究机构:莱斯大学1 introduction从硬件的角度看,乘法操作可以用移位和加法实现,那么也就是说明,传统的给予乘法的卷积网络可以用移位和加法代替,原创 2021-02-21 18:42:57 · 446 阅读 · 0 评论 -
文献阅读(56)2020年神经网络加速器
文章目录1 introduction2 架构2.1 Channel-Oriented Data Pattern2 PE Array3 evaluation题目:High PE Utilization CNN Accelerator with Channel Fusion Supporting Pattern-Compressed Sparse Neural Networks时间:2020会议:DAC研究机构:清华刘勇攀题目:A Throughput-optimized Channel-or原创 2020-11-30 08:54:38 · 223 阅读 · 0 评论 -
文献阅读(67)DNNExplorer & HybridDNN
文章目录1 abstract & introduction整体结构1 abstract & introduction2 Wingrad卷积结构3 存储管理4 基于HLS的资源和性能建模题目:DNNExplorer: A Framework for Modeling and Exploring a Novel Paradigm of FPGA-based DNN Accelerator时间:2020会议:ICCAD研究机构:Deming Chen1 abstract &原创 2021-01-21 11:03:27 · 74 阅读 · 0 评论 -
文献阅读(41) Retrain-Less/DSIP
题目:Retrain-Less Weight Quantization for Multiplier-Less Convolutional Neural Networks时间:2020期刊:TCAS-1研究机构:KAIST1 缩写 & 引用ASD: approximate signed digitCSD: canonical signed digit正则有符号数2 abstract & introduction本篇论文的主要贡献:提出了一种近似数值表示形式,采用正.原创 2020-10-10 15:39:22 · 213 阅读 · 0 评论 -
文献阅读(77)稀疏跳零结构(1)
题目:An Efficient Hardware Accelerator for Structured Sparse Convolutional Neural Networks on FPGAs时间:2020期刊:TVLSI研究机构:浙江大学1 缩写VGM: vector generator moduleSSL: structured sparsity learning2 abstract & introduction本篇论文主要针对稀疏权重的规则剪枝,包括通道剪枝、filt.原创 2020-10-10 15:40:09 · 439 阅读 · 0 评论 -
文献阅读(38)
实时object recognition,运行Alexnet完成分类任务,512DSP,可以实现198.1GOPsov7670摄像头实时输入原创 2020-04-05 18:09:30 · 107 阅读 · 0 评论 -
文献阅读(58)FCCM2019
文章目录1 缩写 & 引用2 abstract & introduction3 数据流4 架构优化4.1 TLUT(tile look up table)4.2 PE设计和权重layout4.3 负载平衡5 implement细节题目:An Efficient Hardware Accelerator for Sparse Convolutional Neural Networ...原创 2020-04-05 18:08:12 · 634 阅读 · 0 评论 -
文献阅读(75)
文章目录1 abstract & introduction2 提出的架构2.1 卷积向量单元2.2 bit slicing2.3 数据流题目:Bit-Slicing FPGA Accelerator for Quantized Neural Networks时间:2019会议:ISCAS研究机构:蒙特利尔大学/IBM1 abstract & introduction...原创 2020-04-05 18:07:12 · 455 阅读 · 0 评论 -
文献阅读(19)ISSCC 2020
文章目录1 14.21.1 整体架构1.2 帧间数据复用1.3 卷积数据复用1.3.1 point-wise卷积(1x1卷积)1.3.2 depth-wise卷积1.3.3 普通卷积2 2.41 14.2题目:A 65nm 24.7μ μJ/Frame 12.3mW Activation-Similarity-Aware Convolutional Neural Network Video Processor Using Hybrid Precision, Inter-Frame Data Reuse原创 2020-03-05 15:52:25 · 419 阅读 · 0 评论 -
文献阅读(76)
文章目录1 abstract & introduction2 网络设计2.1 ShuffleNetV22.2 网络主要的改进2.3 网络量化3 accelerator结构3.1 软件接口题目:Synetgy: Algorithm-hardware Co-design for ConvNet Accelerators on Embedded FPGAs时间:2019会议:FPGA研...原创 2020-04-05 18:07:38 · 413 阅读 · 0 评论 -
文献阅读(80)Caffeine
文章目录1 缩写 & 引用2 abstract & introduction题目:Caffeine: Towards uniformed representation and acceleration for deep convolutional neural networks时间:2019期刊:TCAD研究机构:Chen Zhang、Jason Cong1 缩写 &...原创 2020-02-17 16:11:57 · 179 阅读 · 0 评论 -
文献阅读(79)
文章目录1 缩写 & 引用2 abstract & introduction3 设计流程总览题目:fpgaConvNet: Mapping Regular and Irregular Convolutional Neural Networks on FPGAs时间:2019期刊:TNNLS(IEEE Transactions on Neural Networks and l...原创 2020-04-09 21:13:33 · 322 阅读 · 0 评论 -
文献阅读(97)网络压缩综述(部分)
文章目录1 缩写 & 引用2 abstract & introduction3 量化3.1 fixed-point3.2 二值化和三值化量化3.3 对数量化4 权重压缩4.1 权重减枝4.2 权重共享4.3 低阶分解4.4 结构化矩阵4.5 知识蒸馏题目:Deep Neural Network Approximation for Custom Hardware: Where W...原创 2020-07-19 20:56:02 · 141 阅读 · 0 评论 -
文献阅读(74)
文章目录1 缩写 & 引用2 abstract & introduction3 背景3.1 余数系统3.2 压缩算法题目:Res-DNN: A Residue Number System-Based DNN Accelerator Unit时间:2019期刊:TCAS-1研究机构:伊朗德黑兰大学1 缩写 & 引用RNS: Residue Number Sy...原创 2020-03-21 08:16:29 · 247 阅读 · 0 评论 -
文献阅读(73)
文章目录1 缩写 & 引用2 abstract & introduction题目:Convolutional Neural Network Accelerator with Vector Quantization时间:2019会议:ISCAS研究机构:国立台湾大学1 缩写 & 引用Quantized cnn: a unified approach to ac...原创 2020-03-21 16:35:11 · 302 阅读 · 0 评论 -
文献阅读(72)
文章目录1 缩写 & 引用2 abstract & introduction3 提出的卷积skip算法4 提出的卷积运算单元题目:CASA: A Convolution Accelerator using Skip Algorithm for Deep Neural Network时间:2019会议:ISCAS研究机构:韩国亚洲大学/LG1 缩写 & 引用H...原创 2020-03-21 08:15:33 · 156 阅读 · 0 评论 -
文献阅读(71)
文章目录1 缩写 & 引用2 abstract & introduction3 处理器架构题目:An Application-Specific VLIW Processor with Vector Instruction Set for CNN Acceleration时间:2019会议:ISCAS研究机构:德国亚琛工业大学1 缩写 & 引用ASIP: a...原创 2020-03-21 16:37:06 · 218 阅读 · 0 评论 -
文献阅读(70)
文章目录1 缩写 & 引用2 abstract & introduction题目:Deep Neural Network Acceleration Based on Low-Rank Approximated Channel Pruning时间:2020期刊:TCAS-1研究机构:中国科学技术大学1 缩写 & 引用LAP: Low-rank Approxi...原创 2020-03-21 08:17:05 · 302 阅读 · 1 评论 -
文献阅读(69)
文章目录1 缩写 & 引用2 abstract & introduction3 related work4 提出的方法4.1 稀疏度的定义题目:Computation-Performance Optimization of Convolutional Neural Networks With Redundant Filter Removal时间:2019期刊:TCAS-1...原创 2020-03-21 16:35:43 · 291 阅读 · 0 评论 -
文献阅读(68)
文章目录1 缩写 & 引用2 abstract & introduction3题目:ABM-SpConv: A Novel Approach to FPGA-Based Acceleration of Convolutional Neural Network Inference时间:2019会议:DAC研究机构:北京交通大学题目:DSP-Efficient Har...原创 2020-03-21 16:36:31 · 430 阅读 · 0 评论 -
文献阅读(66)Double MAC
文章目录1 double MAC架构1 缩写 & 引用2 abstract & introduction3 double MAC架构题目:Double MAC: Doubling the Performance of Convolutional Neural Networks on Modern FPGAs时间:2017会议:DATE研究机构:韩国蔚山科学技术院1 double MAC架构xilinx的FPGA的DSP是DSP48E1,可以完成25x18bit的乘法,以及一个原创 2020-01-23 14:16:02 · 189 阅读 · 0 评论 -
文献阅读(65)
文章目录1 缩写 & 引用2 abstract & introduction3 系统架构题目:VWA: Hardware Efficient Vectorwise Accelerator for Convolutional Neural Network时间:2020期刊:TCAS-1研究机构:台湾交通大学1 缩写 & 引用2 abstract & i...原创 2020-03-21 08:14:47 · 189 阅读 · 0 评论 -
文献阅读(64)FPAP
文章目录1 缩写 & 引用2 abstract & introduction3 CNN中的折叠计算3.1 折叠的MAC3.2 折叠的FIR滤波器4 FPAP架构设计题目:FPAP: A Folded Architecture for Energy-Quality Scalable Convolutional Neural Networks时间:2019期刊:TCAS-1研...原创 2020-01-13 11:08:11 · 447 阅读 · 0 评论 -
文献阅读(63)
文章目录1 缩写 & 引用2 abstract & introduction3 零权重skip3.1 权重lookahead3.2 权重lookaside3.3 硬件连接和软件影响题目:Bit-Tactical: A Software/Hardware Approach to Exploiting Value and Bit Sparsity in Neural Network...原创 2020-01-12 18:26:46 · 514 阅读 · 1 评论 -
文献阅读(62)BitBlade
文章目录1 缩写 & 引用2 abstract & introduction3 bitblade架构3.1 loop nest优化3.2 bitwise加法3.3 bitwise packing题目:BitBlade: Area and Energy-Efficient Precision-Scalable Neural Network Accelerator with Bitwise Summation时间:2019会议:DAC研究机构:韩国浦项科技大学1 缩写 &原创 2020-01-12 11:30:31 · 261 阅读 · 0 评论 -
文献阅读(61)
文章目录1 缩写 & 引用2 abstract & introduction3 方法论3.1 通用的基于LUT的有常数乘法4 run-time可配置的CNN卷积核架构4.1 通用架构4.2 faithfully rounded SOP题目:Reconfigurable Convolutional Kernels for Neural Networks on FPGAs时间:2...原创 2020-03-21 08:14:19 · 148 阅读 · 0 评论 -
文献阅读(60)AddNet
文章目录1 缩写&引用2 abstract & introduction3 background & related work4 addnet可配置乘法器4.1 可配置乘法器4.2 FPGA乘法器映射4.3 架构5 addnet训练5.1 拟合分布6 加速器架构题目:AddNet: Deep Neural Networks Using FPGA-Optimized Mu...原创 2020-02-14 09:24:03 · 415 阅读 · 0 评论 -
文献阅读(59)Laconic
文章目录1 缩写 & 引用2 abstract & introduction题目:Laconic Deep Learning Inference Acceleration时间:2019会议:ISCA研究机构:多伦多大学1 缩写 & 引用LPE: Laconic processing elementBit-pragmatic Deep Neural Ne...原创 2020-01-12 09:53:55 · 449 阅读 · 0 评论 -
文献阅读(57)
文章目录1 缩写 & 引用2 abstract & introduction题目:An Energy-Efficient Sparse Deep-Neural-Network Learning Accelerator With Fine-Grained Mixed Precision of FP8–FP16时间:2019期刊:JSSC研究机构:KAIST1 缩写 &a...原创 2020-02-14 09:23:31 · 422 阅读 · 1 评论 -
文献阅读(55)
文章目录1 缩写 & 引用2 abstract & introduction3题目:A Low-Power Deep Neural Network Online Learning Processor for Real-Time Object Tracking Application时间:2019期刊:TCAS-1(IEEE Transcations on Circuits ...原创 2019-12-22 11:18:33 · 183 阅读 · 0 评论 -
文献阅读(54)
文章目录1 缩写 & 引用2 abstract & introduction3 具体的buliding block题目:An Energy-Efficient Deep Reinforcement Learning Accelerator With Transposable PE Array and Experience Compression时间:2019期刊:JSSC...原创 2020-02-14 09:23:06 · 143 阅读 · 0 评论 -
文献阅读(53)
文章目录1 缩写 & 引用2 abstract & introduction题目:DSIP: A Scalable Inference Accelerator for Convolutional Neural Networks时间:2019期刊:JSSC研究机构:KAIST1 缩写 & 引用DSIP: deep learning specific inst...原创 2019-12-23 15:01:24 · 226 阅读 · 1 评论