读论文:AlexNet

AlexNet

本文是根据李沐老师读论文来做的一个小总结,粗读,只是搬运工做的小笔记,仅供参考。
文章原文:
链接:https://pan.baidu.com/s/1RVRdbV8RxCgLJMgdne41EA
提取码:0419

这篇文章是一个里程碑,大家开始继续关注有监督学习
一直到最近几年bert和gan的出现,才开始有拉回到无监督学习

- 论文不足
- 1、认为用很大的模型,通过正则来避免过拟合。(现在来说,recognition不是那么重要,关键的还是神经网络的设计)
- 2、Introduction介绍时候,论文时候不能只涉及自己这个多好,要提到其他的方向,稍微公平一点的介绍。
- 3、没有突出亮点,由于局限性,比如end-to-end的网络再原文中只是简单提了一句。
- 4、相当于是技术报告,只介绍了自己做了什么,都没有比较。(但是由于他做的足够好也是成为了奠基作)
- 5、使用三个全连接,将dropout都放到全连接层来避免过拟合,有多个4096的全连接,是它的瓶颈。

- 论文学习点:
读论文时候一些工程性的东西第二遍可以不细读,主要读方法方面的。
- 1、在介绍的时候要突出自己这个创新点在哪里,比如说有一些unusual features,new techniques,而不是拿多个模型叠起来。能存下来的都不是很工程性的细节。要有技术上的创新,而不是工程上的创新。
- 2、供后人学习的end-to-end网络,不需要任何额外的特征提取,直接输入原始的照片文本,神经网络能算出来。
- 3.通道数的意思就是识别多少种不同的模式,比如192层的out channels理解为图片的192种特征,是根据卷积核的个数来决定的,多少个卷积核就有多少个输出通道。
卷积核 都是随机初始化的,所以对应每个卷积生成的featuremap均不同。如果不是随机初始化,故意设置成一样的,那搞多少个卷积核都没意义了
- 4、如何解决过拟合(过拟合就相当于我们考试只能把答案背下来,那肯定考不好)
PCA处理:将RGB的图片做一些变换,让每次的图片颜色不一样
将dropout都放到全连接层来避免过拟合。
- 5、使用sgd优化算法,其中的噪音对于模型泛化性是有好处的。
- 6、现在训练调参一般使用比较平滑的函数,而不是手动选择依次下降
- 7、发现在两个gpu上,gpu1大多是和颜色相关的信息,gpu2上大多是和颜色无关的信息,作者也很困惑。
- 8、展示结论的时候,把最后深度学习得到的4096向量去对比其他照片,把相似的图片找出来,效果很好(相似的照片真的是在一起的)简单的分离器。

- 网络结构:
- 激活层:ReLU
- 把网络切开,分成了两个gpu进行训练,在第三层和第层卷积层,会把两个gpu的信息共享一下。
- 通过模型压缩,最后输出一个4096的(机器能看懂)向量
- 并没有使用完整的890万的数据进行训练,只是拿出来其中的120万进行训练。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UPC YR

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值