![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文阅读
DechaoMeng
中科院计算所2017级直博生,方向为计算机视觉。
展开
-
【论文阅读】Aggregated Residual Transformations for Deep Neural Networks Saining(ResNext)
这篇文章是kaiming大神的组的工作,在resnet上继续改进。一作谢赛宁,2013年从上海交大本科毕业后去UCSD读博士,现在他引1400+了(不知道我毕业时能不能有这个的一半QAQ),导师是Zhuowen Tu。Introduction现代的网络设计中通常会次堆叠类似结构,如VGG,Inception,Resnet等,从而减少网络中超参数的数量,简化网络设计。Incept...原创 2018-05-02 11:08:07 · 3801 阅读 · 1 评论 -
【论文阅读】Non-local Neural Networks
Non-local Neural NetworksNon-local Neural Networks是何凯明大佬组最近发表的一篇文章。一作Xiaolong Wang,本科毕业于华南农业大学,研究生是中山大学,博士去了CMU,然后做出了这么好的工作,可以说非常励志了。类似于Batch Normalization,这篇文章也提出了一种不改变输入输出大小的层,可以直接集成到现有的网络结构中。思想...原创 2018-05-02 16:02:38 · 5000 阅读 · 1 评论 -
【论文阅读】mixup: BEYOND EMPIRICAL RISK MINIMIZATION
mixup: BEYOND EMPIRICAL RISK MINIMIZATION作者Hongyi Zhang,本科北大,发这篇文章的时候是MIT的博士五年级学生。这篇文章是和FAIR的人一起合作的。Introduction摘要中,本文提到了mixup方法可以让神经网络倾向于训练成简单的线性关系。从而降低模型的过拟合现象。实际上,现在的神经网络规模通常是和数据集规模成正比的。训...原创 2018-04-26 19:44:18 · 4010 阅读 · 1 评论