卷积神经网络进化

总体

阿尔法:AlexNet
更深:VGG、ResNet
更宽:InceptionNet
更深+更宽:InceptionResNet(Inception+Res)
更轻量级:MobileNet等,另附一篇轻量级卷积神经网络介绍

1.AlexNet

  • 首次使用ReLU
  • 使用了2-GPU并行结构
  • 使用了归一化层(注意不是batch normalization,后续弃用)
  • 使用了数据增强技术
  • 两个全连接层使用了dropout:避免过拟合
  • 使用了模型组合技术

2.VGGNet

  • 更深(11-19层,A-E)
  • 多使用3*3的卷积核
    2个3*3卷积层可以看做一层5*5的卷积层(视野域相同,2层比一层多一次非线性变换,参数降低28%)
    3个3*3卷积层可以看做一层7*7的卷积层
    小卷积核计算更少,层数更深,中间可以增加更多非线性层
  • 使用了1*1的卷积层,可以看做是非线性变换(多通道信息压缩到更少通道):降低通道数,降低参数量
  • 每经过一个pooling层,通道数目翻倍
  • 使用fine-tuning加速训练
  • 使用多尺度输入:不同的尺度,再提取224*224,解决图像缩放问题

3.ResNet

  • 更深:ResNet-34与ResNet-101、ResNet-152
  • 引入残差网络,残差子结构
    不会增加参数量
    残差结构使得网络需要学习的知识更少,容易学习(知识大部分在残差中)
    残差结构使得每一层的数据分布接近,容易学习
    恒等变换解决梯度消失问题
  • 去掉了全连接层(强化了卷积层)
  • 每个卷积层之后增加bn层
  • 更多变种:
    ResNetXt:引入分组卷积
    DenseNet:更多的跳连
    Wide-ResNet:加大网络宽度

4.InceptionNet(google)

  • 增加网络宽度
    不算是分组卷积,因为通道没有分割
    一层上同时使用多种卷积核,看到各种层级的feature(从小到大的各种特征)
    不同组之间的feature不交叉计算,减少了计算量
  • 去掉了全连接层(强化了卷积)
  • V1(GoogleNet)、V2(使用3*3替换5*5)、V3结构(使用1*3和3*1替换3*3)、V4结构(引入残差结构)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
进化算法卷积神经网络是一种结合了进化算法和卷积神经网络的混合模型。它的目标是通过进化算法的优化过程来自动设计和优化卷积神经网络的结构和参数。 在传统的卷积神经网络中,网络结构和参数通常是由人工设计和调整的。而进化算法卷积神经网络则通过遗传算法、粒子群优化等进化算法的方法,通过不断迭代和优化来自动搜索最优的网络结构和参数。 具体来说,进化算法卷积神经网络的优化过程可以分为以下几个步骤: 1. 初始化种群:随机生成一组初始的网络结构和参数作为种群。 2. 评估适应度:使用评价指标(如准确率、损失函数等)来评估每个个体(即网络结构和参数组合)的适应度。 3. 选择操作:根据适应度选择一部分个体作为父代,用于产生下一代个体。 4. 变异操作:对父代个体进行变异操作,包括添加、删除、修改卷积层、全连接层等操作,以产生新的个体。 5. 交叉操作:对父代个体进行交叉操作,将不同个体的部分结构和参数进行组合,生成新的个体。 6. 更新种群:将新生成的个体加入到种群中,并淘汰一部分适应度较低的个体。 7. 终止条件:根据预设的终止条件(如达到最大迭代次数、适应度达到一定阈值等),判断是否结束优化过程。 通过以上步骤的迭代,进化算法卷积神经网络可以自动搜索到更优的网络结构和参数组合,从而提高模型的性能和泛化能力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值