Dropout and DropConnect

Dropout和DropConnect是两种用于防止神经网络过拟合的技术。Dropout在激活函数后随机丢弃神经元,而DropConnect则在激活函数前随机断开权重连接。Dropout通过减少神经元之间的协同适应来提高网络泛化能力,DropConnect在计算效率上有一定优势。在实际应用中,两者都有助于改善模型的稳定性和防止过拟合。
摘要由CSDN通过智能技术生成

最近看Fractional Max-pooling 时,中提到了Dropconnect,一时间忘记了,就找出原文看了一下。

参考  原文:Regularization of Neural Networks using DropConnect

现在总结一下,

其实在实验中我们经常使用的是dropout ((Hinton et al., 2012).)方法,这篇文章提出的dropconnect的方法只是对其进行了简单的改进

 

dropout是在全连接时,进行的随机放弃连接,文中介绍其是在进行激活函数运算之后乘以一个二进制的掩码矩阵(矩阵的中的0,1是随机的),这样就是dropout的计算,这样可以起到减少overfitting的作用,具体是减少前后神经元的一种适应性的依赖(在我看来就是惯性吧)。

dropconnect则是在激活函数之前进行的随机去掉连接,可以减少一些计算吧。

上面是从计算的角度看还是十分明显的,下面是参考网上的一篇的博文中的图,

将文中激活与权重看作是一个大的整体中的两个部分的话,这样的话,上图还是很清晰的。

 

这是原文中给出的图像,dropconnect的效果和dropoup比的话,会有一些提升,但是两者还是比较相似的,差别不大。

===dropout注意事项

一、相关工作

    本来今天是要搞《Maxout Networks》和《Network In Network》的,结果发现maxout和dropout有点类似,所以就对dropout做一下相关的总结,了解一下其代码层面的实现。

    Dropout是2012年深度学习视觉领域的开山之作paper:《ImageNet Classification with Deep Convolutional》所提到的算法,用于防止过拟合。在我刚入门深度学习,搞视觉的时候,就有所耳闻,当时只知道它是为了防止过拟合。记得以前啥也不懂,看到《ImageNet Classification with Deep Convolutional》的思路,然后看到很多文献都是采用了同样的思路,于是就跟着模仿,也不

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值