![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
文献翻译
文章平均质量分 89
little豪斯
这个作者很懒,什么都没留下…
展开
-
DarkRank: Accelerating Deep Metric Learning via Cross Sample Similarities Transfer论文翻译
前些时间帮朋友大概翻译了几篇文章,放在这里,以备后面查看,有的不好敲直接把我翻译的word文档截图了,先这样留着。 DarkRank: Accelerating Deep Metric Learning via Cross Sample Similarities Transfer 通过交叉样本相似性迁移加速深度度量原创 2017-10-09 10:55:06 · 2398 阅读 · 0 评论 -
Data-Driven Sparse Structure Selection for Deep Neural Networks 论文翻译
摘要 深度卷积神经网络在各种任务中已经展现出其非同凡响的效果。然而,由于其很高的计算复杂度,将最先进的模型部署到现实应用中任然是很具有挑战性的。如何在没有大量实验和专家知识的情况下设计一个紧凑而有效的网络?在本文中,我们提出了一种简单有效的框架,以端对端的方式学习和修剪深度模型。在我们的框架中,首先引入了一种新的参数缩放因子来缩放特定结构的输出,如神经元,组或残差块。然后我们对这些因素加上稀疏正原创 2017-10-09 11:19:33 · 2891 阅读 · 5 评论 -
Like What You Like: Knowledge Distill via Neuron Selectivity Transfer 论文翻译
摘要 尽管深度神经网络已经在各种各样的应用中表现出非凡的效果,但是其优越的性能是以高存储和计算成本为代价的。因此,神经网络的加速和压缩近来引起了人们极大的关注。知识迁移(KT),旨在通过从较大的教师模型迁移知识来训练一个较小的学生网络,是流行的解决方案之一。在本文中,我们通过将其视为一个分布匹配问题来提出一个新的知识迁移方法。特别地,我们匹配教师和学生网络之间的神经元选择性模式的分布。为了实现这一原创 2017-10-09 11:36:22 · 3546 阅读 · 0 评论