CV基石-GoogleNet-V2论文研读

1、回顾

VGG小卷积核:2个3 x 3的卷积核堆叠等价于1个5 x 5 感受野相同,减少训练参数, 提升特征提取的能力

2、ICS(Internal Covariate Shift)内部协变量偏移

特点:数据分布变化导致训练困难 

举例:x_i=i,i = 1,2,3,Mean =2 ,Std =0.81649658,经过变换后, x_1=−1.22474487,x_2=0,x_3=1.22474487,此时Mean=0 , Std = 1

白  化:去除冗余信息,使得数据特征之间相关性较低,所有特征具有相同方差。

依概率论:         

使X变为0均值,1标准差

 3、BN层

 实现缩放和平移

恒等变换

 削弱了网络表达能力

以FC层为例:

优点:可以用更大学习率加速模型收敛

          可以不用精心设计权值初始化

          可以不用dropout

         可以不用正则化

         可以不用LRN 

4、指数滑动平均值

因为如果想要计算所有图像的均值与方差,显然不太现实,所以每次计算每个batch的方差与均值,为了使得每个batch的方差与均值尽可能的接近整体分布方差与均值的估计值,这里采用指数滑动平均值

 

 

 

5、 网络结构

GoogleNet-V1

GoogleNet-V2

6、结果分析

 

 

关于Batchsize:

大的batch size梯度的计算更加稳定,因为模型训练曲线会更加平滑。在微调的时候,大的batch size可能会取得更好的结果。     

batchsize在变得很大(超过一个临界点)时,会降低模型的泛化能力。在此临界点之下,模型的性能变换随batch size通常没有学习率敏感。     

研究表明,大的batchsize性能下降是因为训练时间不够长,本质上并不少batchsize的问题,在同样的epochs下的参数更新变少了,因此需要更长的迭代次数

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值