深度学习中技术发展相关历史节点

1,入门数据集(MNIST),地位等同于编程语言中的“Hello World!”

2,起源,LeNet算是最早的卷积神经网络模型,确定了CNN的基本框架,包括卷积层,池化层,全连接层以及输出层。

3,崛起,深度学习的高速发展起源于AlexNet在ImageNet大赛中的出色表现。Alex在LeNet的框架上进行了大量的更新,包括数据增强、激活函数、随机失活、最大池化等,同事首次使用GPU进行加速。

4,VGGNet,在AlexNet的基础上进行优化的模型,使用多个更小的卷积核代替大卷积核,同时提出了1×1的卷积核,提高了非线性表达能力,同时减少了参数量。

5,Inception V1(GoogleNet),核心特征:增加过滤器,扩宽网络;1×1卷积降维。(目前已发展到V4)

6,ResNet,不直接计算映射,而是学习输入输出之间的残差的方式。(这里可能理解错误,后续更改。,反正看现在的一些模型,ResNet被大量借鉴。)

7,Xception,与Inception相关性挺大,主要特点在于分别对各通道卷积后通过1*1卷积获取通道间的相关性。

参考文献:

https://blog.csdn.net/weixin_43850408/article/details/90635352

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值