论文阅读(一)---AlexNet 论文学习理解

       最近在看论文,想把我学习的东西记录和整理。 《ImageNet classification with Deep Convolutional Neural Networks》在我研一的时候已经读过一遍,过了小半年温习一下。论文下载地址:https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf

       作者在摘要的部分就已经很清楚的告诉我们次篇论文的网络模型结构和模型训练的最后精度效果。下面就作者主要介绍了ReLU,LPN,Overlapping Pooling,总体架构,减少过度拟合,这也是本文的创新点。

一、Rectified Linear Unit nonlinearity (ReLU)

       论文主要讲了为什么激活函数要用ReLU。在训练的过程中,非线性饱和函数(sigmoid和tanh)比非线性不饱和函数(ReLU)慢,深度卷积神经网络训练中使用ReLUs的速度是使用tanh的数倍,如下图实线是ReLU,虚线是tanh,在训练误差达到25%时两种激活函数迭代的次数比较。

                                                    </

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值