shiro session每次请求都不一样_【知识星球】有没有网络模型是动态变化的,每次用的时候都不一样?...

欢迎大家来到《知识星球》专栏,这里是网络结构1000变小专题,今天给大家介绍一类网络结构,它是动态变化的,每一次使用的时候都不一样。

作者&编辑 | 言有三

1 训练时变化的网络结构

首先我们看第一种,即训练的时候拓扑结构发生动态变化的,最熟悉的是什么?Dropout和DropConnect对吧!

de47cd6130f5678e514373cf2534c726.png

大家都知道的我们肯定是不会讲了,下面给大家讲一个非常优秀的研究。

有三AI知识星球-网络结构1000变

Stochastic Depth

c7f47e6778ee49c94b9e0d6e09d0788c.png

多个独立研究表明实际上ResNet的有效深度没有想象中那么深,152层的网络有效深度也就是40多层左右,怎么去研究这个问题呢?

作者/编辑 言有三

stochastic depth对此做出了研究,它做的事情很简单,就是在训练的时候把残差网络的单元随机删减掉一些,测试时不变,所以网络训练的时候是一个比测试时更浅层的网络。

实验证明这不仅减小了训练时间,还提升了测试精度,实验结果如下:

3823c94d2e4abb4192ab3cf884cf016e.png

从这两个图可以看出,加上随机删减后测试集的精度在CIFAR10和CIFAR100上都有所提升了。与基础ResNet结构相比,测试集的精度大于训练集,证明网络过拟合大大下降。下面SVHN的结果更加印证了这一点,稳稳地压倒普通ResNet网络。

2df830ca9ded37ba19d4cfad7e43545b.png

另一方面再看右上图,1201层的网络的性能也很不错,不仅仅没有过拟合,而且相对于152层的ResNet性能还能够继续提升,这就相当不易了。

上面展示了实验结果,那为什么有效呢?作者给出了一点解释。即这样的网络梯度更大更有效,如下图第一个卷积层的对比:

8cd9442eb5fa70101dcf6203434b0218.png

随机删减网络的梯度始终比普通ResNet更大,而且学习率下降后更加明显。

[1] Huang G, Sun Y, Liu Z, et al. Deep networks with stochastic depth[C]//European conference on computer vision. Springer, Cham, 2016: 646-661.

Stochstic depth网络本质上可以看作是多个网络的集成,与Dropout等技术一样在训练时结构发生变化,能提高模型的表达能力。

测试时变化的网络结构

上面说了训练时发生变化的网络,那有没有测试时也发生动态变化的网络呢?

有三AI知识星球-网络结构1000变

BranchyNet

5af6c6deae2351fe1cc6d4eb05de281c.png

通常来说模型训练完之后结构就是固定的,测试时图片沿着固定的通路进行计算。然而测试样本本身有不同的难度,简单的样本只需要少量的计算量就可以完成任务,困难的样本则需要更多的计算量。BranchyNet就可以根据不同难度的图片,使用不同的计算通路,从而使计算更加高效。

作者/编辑 言有三

如上图所示,它在正常网络通道上包含了多个旁路分支,这样的思想是基于观察到随着网络的加深,表征能力越来越强,大部分简单的图片可以在较浅层时学习到足以识别的特征,如上图中的Exit 1通道。一些更难的样本需要进一步的学习,如上图中的Exit 2通道,而只有极少数样本需要整个网络,如Exit3通道。这样的思想可以实现精度和计算量的平衡,对于大部分样本,可以用更小的计算量完成任务。

那么如何判断是否可以提前结束呢?在提出该网络的论文中,作者采用分类信息熵,一旦该通道的分类信息熵低于某一个阈值,说明已经以很高的置信度获得了分类的结果,直到最终的通道。

在训练的时候,每一个通道都会对损失有贡献,越靠近浅层的网络权重越大。多通道的损失不仅增强了梯度信息,也在一定程度上实现了正则化。

将BranchyNet的设计思想用于LeNet,AlexNet,ResNet结构后,在维持性能的前提下,加速效果明显。

ebfc405366b4a1b8f91e67c583541a4e.png

对于拥有N个分支的网络,需要的就是N-1个阈值,因为最后一个分支不需要阈值。

LeNet系列网络可以让超过90%的样本在第一个分支提前终止,AlexNet提前终止样本比例也超过一半,ResNet提前终止样本比例超过了40%。

[1] Teerapittayanon S, McDanel B, Kung H T. Branchynet: Fast inference via early exiting from deep neural networks[C]//2016 23rd International Conference on Pattern Recognition (ICPR). IEEE, 2016: 2464-2469.

更多相关内容请大家移步有三AI知识星球。

8dddf0160207fb9919ea27bdf3988eec.png

3 关于有三AI知识星球

有三AI知识星球是我们继公众号之后重点打造的原创知识学习社区,有需要的同学可以阅读下文加入,添加有三微信加入还有优惠。

【杂谈】为什么邀请大家加入硬核知识星球有三AI

有三AI知识星球的内容非常多,大家可以预览一些内容如下。

d1f985597bdf4ac90390f36c8416e7cd.png 5d3b6d15b8d5e0f1f415280edffabddd.png 226b1a8c0c85317397a6fc086226c252.png fa80742b41b8793e0be01fd223afe60b.png c5b4a46e3eac9b8a1e09d1284ee53acb.png 92ce571617319c9ab9e41d2a58e90179.png f1066651de87d4357356924ac03ad727.png bc7d980ad1a6a9a9e23b7b6dabd81e03.png 7e77f94eb6152050fb9f7a90e3945173.png

以上所有内容

加入有三AI知识星球即可获取

来日方长

点击加入

不见不散

更多精彩

每日更新

af9aa3560841c9c22a870ac013ea033e.png

转载文章请后台联系

侵权必究

9fbd407058f3aea73ae65b183cc0954e.png db83dfb31595bf50fb59f1c55837b41b.png db83dfb31595bf50fb59f1c55837b41b.png

往期精选

  • 揭秘7大AI学习板块,这个星球推荐你拥有

  • 有三AI 1000问回归,备战秋招,更多,更快,更好,等你来战!

  • 有三AI“夏季划”出炉,今夏进阶中级CV算法工程师

  • 【知识星球】做作业还能赢奖金,传统图像/机器学习/深度学习尽在不言

  • 【知识星球】颜值,自拍,美学三大任务简介和数据集下载

  • 【知识星球】数据集板块重磅发布,海量数据集介绍与下载

  • 【知识星球】猫猫狗狗与深度学习那些事儿

  • 【知识星球】超3万字的网络结构解读,学习必备

  • 【知识星球】视频分类/行为识别网络和数据集上新

  • 【知识星球】3D网络结构解读系列上新

  • 【知识星球】动态推理网络结构上新,不是所有的网络都是不变的

  • 【知识星球】Attention网络结构上新,聚焦才能赢

  • 【知识星球】几个人像分割数据集简介和下载

  • 【知识星球】总有些骨骼轻奇,姿态妖娆的模型结构设计,不知道你知不知道,反正我知道一些

  • 【知识星球】从SVM对偶问题,到疲劳驾驶检测,到实用工业级别的模型压缩技

  • 【知识星球】图像降噪模型和数据集内容开启更新,经典问题永垂不朽

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值