- 博客(4)
- 资源 (2)
- 收藏
- 关注
原创 IJCAI2018 | SFP软剪枝通道裁剪算法
论文:Soft Filter Pruning for Accelerating Deep Convolutional Neural Networks论文:Asymptotic Soft Filter Pruning for Deep Convolutional Neural Networks论文链接:https://arxiv.org/pdf/1808.06866.pdf论文链接:https://arxiv.org/pdf/1808.07471.pdf代码链接:https://github.com/
2020-05-20 18:03:06 2083
原创 CenterLoss | 减小类间距离
1.centerloss原理centerloss中心损失它仅仅用来减少类内的差异,而不能有效增大类间的差异性。下图中,图(a)表示softmax loss学习到的特征描述 。图(b)表示softmax loss + center loss 学习到的特征描述,他能把同一类的样本之间的距离拉近一些,使其相似性变大,尽量的往样本中心靠拢,但可以看出他没有把不同类样本之间的样本距离拉大。centerloss的主要思路为:让每一类特征尽可能的在输出特征空间内聚集在一起。更直白的描述就是每一类的特征在特征空间中尽
2020-05-13 22:54:14 5194
原创 FG2020 | 软门控信号优化shortcut
https://arxiv.org/pdf/2002.11098.pdf1.优化shortcut现有的很多优秀的人体姿态估计网络都用到了类似Hourglass框架,该架构由多个如下图所示的编码器+解码器组合而成,且该框架内部有一个约定是下图中的跳跃连接能够有效提升网络性能。而本文对这种跳跃连接进行了深入分析,并利用软门控信号的方式优化该连接,实现了精度的提升。2.软门控信号如上图所示,所谓的软门控信号就是在每个跳跃连接的过程中,加入一个和输入通道维度相同的向量组,该向量组中的每一个标量值代表了当
2020-05-13 22:53:34 670
原创 知识蒸馏 | 模型压缩利器_良心总结
1.什么是知识蒸馏最近利用知识蒸馏的方法,对业务中的性能有了可观的提升,因此在这里总结一波。本文主要从宏观的角度分析一下各个蒸馏算法的蒸馏方式,具体细节可以根据兴趣阅读论文~ 知识蒸馏是一种模型压缩常见方法,用于模型压缩指的是在teacher-student框架中,将复杂、学习能力强的网络学到的特征表示“知识蒸馏”出来,传递给参数量小、学习能力弱的网络。从而我们会得到一个速度快,能力强的网络,...
2020-05-03 15:37:29 3471
python调用C语言动态库例程
2023-06-20
windows下离线查看caffe网络(prototxt)
2018-08-23
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人