![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
读论文
qq_41732520
这个作者很懒,什么都没留下…
展开
-
Understanding intermediate layers using linear classifier probes (2016)摘要
Understanding intermediate layers using linear classifier probes (2016)摘要G. Alain & Y. Bengio原文地址https://arxiv.org/abs/1610.01644众所周知,大多数时候神经网络模型的内部运算不可测,这篇论文提出了“linear classifier probe”来分析神经网...翻译 2018-10-06 04:35:22 · 848 阅读 · 0 评论 -
Regularizing Neural Networks by Penalizing Confident Output Distributions (2017)摘要
G. Pereyra, G. Tucker, J. Chorowski原文地址https://arxiv.org/abs/1701.06548在深度学习的分类问题中,经常出现模型过拟合的情况,具体表现往往为:模型给一个目标分类时,给某个类过大的信任(概率)导致分类出错,(即概率集中在一个类上)。作者提出给这样的分布添加惩罚机制。论文从条件概率的熵开始推导,y为类别,x为输入值。将这个熵...翻译 2018-10-06 04:50:05 · 1403 阅读 · 0 评论 -
EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks (2019)论文笔记
论文链接: EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks.代码链接: tensorflow.摘要简介传统Scaling up的方法Compound Scaling方法简介加深扩大神经网络(model scaling up)可以有效提升模型的准确率,但是计算资源是有限的。本文讨论了在有限的运算...原创 2019-06-11 22:12:16 · 575 阅读 · 0 评论