神经网络架构演变过程

本文回顾了卷积神经网络的发展历程,从LeNet到DenseNet,探讨了各阶段标志性网络如AlexNet的随机裁剪、VGG的深结构、GoogLeNet的Inception模块、ResNet的残差学习以及DenseNet的密集连接,阐述了它们如何解决梯度消失、计算效率和参数量等问题。
摘要由CSDN通过智能技术生成

博主现在已经研一了,过了个暑假,好像把所有东西都忘记的差不多了,所以先复习一遍。具体打算是:

  1. 卷积神经网络架构(1天)
  2. 目标检测(3天)
  3. 语义分割(1周,之前没怎么接触过)
  4. 着手看点做点工程项目
  5. 学一遍computer vision传统方法(主要是看prml,今天刚买,估计要几天才能到,这个和1/2/3不冲突,可以并行)
  6. 刷LeetCode(鉴于现在算法岗越来越激烈,还是要做好毕业开发岗的心理准备,并行)
  7. 英语听说读写(希望有人一起啊,互相监督,有的话请可以私聊qq:894525124)

好,下面开始正题。由于是复习,所以可能会写的比较简略,本片博文不是针对初学者的

一、开山之作:LeNet

在这里插入图片描述
定义了CNN的最基本的架构:卷积层、池化层、全连接层。
该网络使用的方式是:conv1->pool->conv2->pool2再接全连接层。并且在进行卷积操作的时候,不需要进行padding,并且在max pooling之前没有relu操作,而且卷积核都相对较大,是5*5的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值