经典神经网络论文阅读
Alex丶Chen
这个作者很懒,什么都没留下…
展开
-
经典神经网络论文阅读|GoogLeNet(Inception V3)
InceptionV3Sergey Ioffe and Christian Szegedy “Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift” ICML2015Christian Szegedy et al.“Rethinking the Inception Architecture for Computer Vision” CVPR2016动机(Why)原创 2020-09-16 16:39:24 · 671 阅读 · 0 评论 -
经典神经网络论文阅读|GoogLeNet(Inception V1)
InCeptionV1Christian Szegedy ; Wei Liu ; Yangqing Jia et al. “Going Deeper with Convolutions” CVPR 2015非常好的一篇文章动机(Why)Introduction 中就说了GoogleNet只有5 million 参数,12倍小于AlexNet,还更加准确。提出不要一味追求精度,还要考虑设备上部署的效率;启发:《Network in network》: 1x1 卷积,Global Avera原创 2020-09-16 11:00:35 · 573 阅读 · 0 评论 -
经典神经网络论文阅读|VGG
VGGSimonyan and Zisserman “Very Deep Convolutional Networks for Large-Scale Image Recognition” ICLR2015动机(Why)探讨加深网络的可能性,加深到16-19层,继续在ImageNet上刷点方法(How)所有层都采用3x3的小卷积核和AlexNet一样,都使用Local Response Normalization 局部响应归一化卷积卷积池化卷积卷积池化不断重复,最后累加f原创 2020-09-16 09:42:00 · 267 阅读 · 0 评论 -
经典神经网络论文阅读|ZFNet(神经网络可视化)
ZFNetZeiler and Fergus “Visualizing and Understanding Convolutional Networks” ECCV2014动机(Why)现有CNNs效果很棒,但是第一不知道他为什么好,第二不知道该从哪个方面改进;因此这篇文章对CNNs做了可视化,并提出了一些理解方法(How)8 层,改进AlexNet,更小的步长和卷积核,认识到的特征更细节并且有更少的"dead" featuresDeconvnet (各层通过Deconvne原创 2020-09-15 20:28:20 · 771 阅读 · 0 评论 -
经典神经网络论文阅读|AlexNet
AlexNetKrizhevsky et al. "ImageNet classification with deep convolutional Neural Networks " NIPS 2012动机(Why)ImageNet 图像分类竞赛中现有模型准确度不足,为了刷点方法(How)8层卷积神经网络使用ReLU,比Sigmoid效率高上很多数据增强:沿PCA主方向乘以随机系数向量,扩充数据使用Local Response Normalization 局部响应归一化;作用在同层中相原创 2020-09-15 17:58:19 · 416 阅读 · 0 评论