深度学习模型推理加速
文章平均质量分 94
以论文阅读笔记为主,在阅读论文过程中分享研究思路,包括研究问题如何找到以及如何开展研究。
zoetu
欢迎交流探讨~ (ps要资料/咨询问题请直接表明问题出处及已尝试的解决方案,以便更快速解决您的问题)
展开
-
【论文阅读】A Simple Hash-Based Early Exiting Approach For Language Understanding and Generation
改进EE,哈希函数替换learn-to-exit模块,无需中间分类器,实现批量推理原创 2023-07-18 17:14:16 · 111 阅读 · 0 评论 -
【论文阅读】Accelerating Inference for Pretrained Language Models by Unified Multi-Perspective Early Exiti
EE+skipping gate,交叉对比学习训练原创 2023-07-18 17:10:10 · 113 阅读 · 0 评论 -
【论文阅读】COST-EFF: Collaborative Optimization of Spatial and Temporal Efficiency with Slenderized Multi
剪枝+KD+EE原创 2023-07-18 17:01:41 · 101 阅读 · 0 评论 -
【论文阅读】A Survey on Dynamic Neural Networks for Natural Language Processing
动态神经网络综述原创 2023-05-06 20:49:15 · 553 阅读 · 1 评论 -
【论文阅读】SKDBERT: Compressing BERT via Stochastic Knowledge Distillation
多教师KD,固定教师模型采样概率分布,保留教师模型多样性,减少模型容量差距的影响。原创 2023-07-03 21:06:31 · 489 阅读 · 0 评论 -
【论文阅读】2_A Survey on Model Compression and Acceleration for Pretrained Language Models
模型压缩与加速综述2,关于method和future部分。原创 2023-04-27 15:44:06 · 417 阅读 · 1 评论 -
【论文阅读】SmartBERT: A Promotion of Dynamic Early Exiting Mechanism for Accelerating BERT Inference
ee+skipping gate,对比学习训练机制,软硬权重融合训练原创 2023-07-03 21:07:01 · 205 阅读 · 0 评论 -
【论文阅读】1_A Survey on Model Compression and Acceleration for Pretrained Language Models
模型压缩与加速的最新综述原创 2023-04-26 22:04:06 · 241 阅读 · 1 评论 -
【论文阅读】Dynamic Split Computing for Efficient Deep Edge Intelligence
ICASSP2023关于边缘计算任务卸载的文章,提出使用终端设备计算能力且避免隐私泄露,实验使用模型为EfficientNet,推理速度平均提高20-30%原创 2023-06-27 16:32:14 · 1074 阅读 · 1 评论