ImageNet classification with deep convolutional neural network

  • 摘要
    作者训练了一个巨大的神经网络将ImageNet LSVRC-2010 contest 集合里面的1.2million高清图像分为1000类。
    在测试数据上,作者的top-1 错误率为37.5%, top-5错误率为17.0%。这两个优于同期的state-of-the-art。AlexNet 网络包含约6千万的参数和约65万神经元。网络架构由5个卷积层、3个全连结层和一个1000路的softmax组成。
    为了使训练更快,作者使用了ReLU和 基于GPU的卷积实现。为了减少过拟合,作者使用了dropout方法。
  • 亮点总结
    1)ReLU 非线性
    标准的激活函数为sigmoid,tanh函数。作者没有使用上述函数,而是采用Rectified Linear Units (ReLU)作为激活函数。作者测试发现使用ReLU函数,可以得到several times加速。
    2)多GPU训练
    作者当时使用的GPU是GTX580,显存3G。为了训练这样的大网络,作者使用了2个GPU并行。目前GPU已经发展到了K80,训练AlexNet网络在单GPU就可以实现。
    3)Local Response Normalization
    作者发现使用LRN可以提升2%性能。
    4)Overlapping Pooling
    作者使用s=2, z=3的max pooling方法。
    5)reducing over-fitting
    (a)使用平移,反转等方式制作更多的训练数据。
    (b)通过“改变图象RGB值”的方式制作更多的训练数据。
    6)dropout
    作者使用0.5倍的dropout
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值