卷积神经网络的dropout layer

  1、dropout是什么

深度学习领域大神Hinton,在2012年文献:《Improving neural networks by preventing co-adaptation of feature detectors》提出了,在每次训练的时候,让一半的特征检测器停过工作,这样可以提高网络的泛化能力,Hinton又把它称之为dropout。   Dropout用网络训练时工作变化来定义的话,是指在模型训练时随机让某些神经单元的权重停止本次更新,等下次训练时就有可能更新,对于一层中每个神经单元来说,它们更新的概率是相同的。Dropout说的简单一点就是我们让在前向传导的时候,让某个神经元的激活值以一定的概率p,让其停止工作,示意图如下:

 

   2、dopout的作用

  在hinton的论文Improving neural networks by preventing coadaptation提出的,主要作用就是为了防止模型过拟合。当模型参数较多,训练数据较少时候,根据线性代数相关知识可以知道,当前模型可以非常完美的拟合我们的曲线。但该模型对测试数据集可能就没有很好的表现了,也就是说训练出的模型泛化能力很弱,我们称之为过拟合。从文章题目通过阻止特征检测器的共同作用来提高神经网络的性能可以看出,网络在提取训练集特征时,舍弃掉了一部分特征来提高网络的泛化能力。

3、导致的结果

模型泛化能力增强,测试时候  错误个数减少

训练阶段存在波动现象,导致结果不是很稳定

训练时间延长,测试时间无影响
 

  • 4
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
CIFAR-10是一个图像分类数据集,包含了10类图片,每类图片有6000张,总共有60000张32x32大小的彩色图片。我们可以使用卷积神经网络对这个数据集进行分类。 针对CIFAR-10数据集,我们可以设计不同的卷积神经网络结构进行分类,以下是一个简单的卷积神经网络: ``` Convolutional layer (32 3x3 filters) -> ReLU -> Convolutional layer (32 3x3 filters) -> ReLU -> Max pooling layer (2x2) -> Dropout layer -> Convolutional layer (64 3x3 filters) -> ReLU -> Convolutional layer (64 3x3 filters) -> ReLU -> Max pooling layer (2x2) -> Dropout layer -> Flatten layer -> Fully connected layer (512 units) -> ReLU -> Dropout layer -> Fully connected layer (10 units) -> Softmax ``` 我们可以使用该卷积神经网络对CIFAR-10数据集进行训练和测试,以下是该模型的结果分析: 1. 训练时间:该模型经过10个epochs的训练,训练时间较快,只需要不到10分钟。 2. 准确率:该模型在测试集上的准确率约为75%左右,可以看出该模型对CIFAR-10数据集的分类效果还有一定的提升空间,可以通过调整网络结构或者增加训练次数来提高准确率。 3. 损失函数:该模型在训练过程中的损失函数逐渐下降,说明该模型可以有效地学习数据集中的特征。 4. 可视化特征图:我们可以通过可视化模型中间层的特征图,来了解模型学到的特征,可以发现模型对于不同的物体具有不同的响应,说明模型能够有效地提取数据集中的特征。 总的来说,该卷积神经网络模型对CIFAR-10数据集的分类效果还有一定的提升空间,可以通过调整网络结构或者增加训练次数来提高准确率。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值