![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文
文章平均质量分 83
先出个点金手
这个作者很懒,什么都没留下…
展开
-
ALEXNET解读与翻译
摘要(Abstract)本文训练了一个大规模的深度卷积神经网络来将ImageNet LSVRC-2010比赛中的包含120万幅高分辨率的图像数据集分为1000种不同类别。在测试集上,本文所得的top-1和top-5错误率分别为37.5%和17.0%,该测试结果大大优于当前的最佳水平。本文的神经网络包含6千万个参...转载 2018-08-18 14:44:11 · 642 阅读 · 0 评论 -
AlexNet论文总结
1.Relu激活函数的使用使用ReLU激活函数,要比使用常用的的费线性激活函数如sigmoid,tanh等函数,网络的训练速度要快上好几倍。 ReLU函数为什么可以提高训练速度? 一下内容借鉴了Physcal博客ReLU激活函数传统sigmoid函数的特点(logistic-sigmoid。tanh-sigmoid) 从图上看,非线性的sigmoid的函数对中央区的信号增益较...原创 2018-08-18 21:21:30 · 535 阅读 · 0 评论