- 博客(5)
- 收藏
- 关注
原创 [论文笔记]Rethinking the Inception Architecture for Computer Vision
摘要:本文探索了一种方法,通过尽可能有效的稳定分解卷积核和正则化来利用增加的计算量来逐级增加网络的规模。这样单个网络可以在ImageNet数据集上达到21.2%的top-1错误率和5.6%的top-5错误率。与此同时,通过级联多个网络,可以达到17.3%的top-1错误率和3.5%的top-5错误率。...
2018-03-15 23:45:16 383
原创 [论文笔记]Batch Normalization: Accerlerating Deep Network Training by Reducing Internal Covariate Shift
摘要: 在以往训练深度模型的时候,总是会遇到一个问题:每一层输入到下一层的数据的分布都是不一样的,这就要求在训练阶段只能使用较小的学习率和小心翼翼的设置初始化参数,这种问题称之为内部相关变量的漂移。 贡献1:提出了一种方法Batch Normalization来解决内部相关变量漂移的问题,使得我们可以使用更高的学习率和不需要太关心初始化问题。 贡献2:它的活动就像正则...
2018-03-14 23:54:56 344
原创 [论文笔记]Going deeper with convolutions(Inception-V1)
摘要:贡献1:提出了一种新的网络结构,在ImageNet 2014图像分类比赛上获得了冠军。贡献2:这种新的结构可以在增加网络宽度与深度的同时,提升计算资源的利用率。贡献3:优化新的网络是基于赫本理论和多尺度处理。一.介绍 GoogLeNet的参数是AlexNet的十二分之一,但是精度却更加的准确。GoogLeNet可以更好的应用到移动平台或是嵌入式计算中。在设计这个网络的时候,考虑的是...
2018-03-14 12:11:43 309
原创 [论文笔记]Relay Backpropagation for Effective Learning of Deep Convolutional Neural Networks
摘要: 贡献:提出了一种新的方法,Relay Backpropagation,使得有效信息可以在训练阶段被传播,此方法获得了ILSVRC 2015 Scene Classification 挑战的第一名。一.介绍 随着近年来卷积神经网络CNN的应用,在许多计算机视觉任务中获得了巨大的突破;与此同时,网络深度的重要性也被揭露出来了,比如VGG16比AlexNet有更深的网络,在I...
2018-03-06 16:15:06 2854 2
原创 [论文笔记]Learning Deep Features for Scene Recognition using Places Database
摘要:贡献1:提出了一个新的数据集Places,这个数据集有700万张标注的图片。贡献2:提出了一种新方法来比较数据集的密度及多样性。贡献3:在一些以风景为中心的数据集上获得了最好的结果。贡献4:将CNN可视化,来显示以物体为中心和以风景为中心的内部表达的不同之处。一.介绍 人类的场景识别能力是通过采样了大量的自然场景,并且将其注入到了我们的神经,才获得了这个能力。那么我们要给人工智能系...
2018-03-02 11:12:30 2311
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人