dropout在DNN中的原理

在本文中,我将主要讨论神经网络(特别是深层网络)中的丢失(dropout)概念,然后进行实验,以了解在标准数据集上实施深层网络并观察丢失的影响对实践的实际影响。

神经网络中的dropout是什么?

术语“dropout”是指在神经网络中删除单位(隐藏的和可见的)。
简而言之,dropout是指在随机选择的某些神经元的训练阶段忽略单元(即神经元)。 “ignore”是指在特定的向前或向后通过过程中不考虑这些单位。

从技术上讲,在每个训练阶段,单个节点要么以1-p的概率从网络中退出,要么以概率p的形式被保留,从而留下一个简化的网络; 删除节点的传入和传出边缘也将被删除。

为什么我们需要dropout?

既然我们对dropout有所了解,就会出现一个问题-为什么我们根本需要dropout? 为什么我们需要从字面上关闭神经网络的某些部分?

这些问题的答案是“防止过度拟合”。

完全连接的层占据了大多数参数,因此,神经元在训练过程中彼此之间发展了相互依赖性,这抑制了每个神经元的个体力量,导致训练数据过度拟合。

dropout—复习

现在,我们对dropout和动机有所了解,让我们详细介绍一下。如果您只想概述神经网络中的dropout情况,那么以上两节就足够了。在本节中,我将介绍更多技术性。

在机器学习中,正则化是防止过度拟合的方法。正则化通过对损失函数增加惩罚来减少过度拟合。通过添加此惩罚,可以对模型进行训练,使其不会学习相互依赖的一组特征权重。那些了解逻辑回归的人可能熟悉L1(拉普拉斯)和L2(高斯)的惩罚。

dropout是一种在神经网络中进行正则化的方法,有助于减少神经元之间的相互依赖学习。

训练阶段:
训练阶段:对于每个隐藏层,每个训练样本,每次迭代,忽略(零淘汰)节点(和相应的激活)的随机分数p。

测试阶段:
使用所有激活,但将它们减少一个因子p(以考虑训练期间丢失的激活)。

在这里插入图片描述

一些观察:

dropout迫使神经网络学习更强大的功能,这些功能可与其他神经元的许多不同随机子集结合使用。

dropout大约会使收敛所需的迭代次数加倍。 但是,每个时期的训练时间更少。
对于H个隐藏单元,每个隐藏单元都可以删除,我们有2 ^ H种可能的模型。 在测试阶段,将考虑整个网络,并且每次激活都会减少因子p

在Keras进行实验

让我们在实践中尝试一下这一理论。 为了了解dropout的工作原理,我在Keras中构建了一个深层网络,并尝试在CIFAR-10数据集上对其进行验证。 构建的深层网络具有三个大小分别为64、128和256的卷积层,然后是两个大小为512的密集连接层和一个大小为10(CIFAR-10数据集中的类数)的输出层密集层。

我将ReLU用作隐藏层的激活函数,将Sigmoid用作输出层的激活函数(这些是标准配置,对更改这些特性并没有做太多的尝试)。 另外,我使用了标准的分类交叉熵损失。
最后,我在所有层中都使用了dropout,并以0.1的步长将dropout的比例从0.0(完全没有dropout)增加到0.9,然后将其中的每一个运行到20个迭代。 结果看起来像这样:

在这里插入图片描述

从以上图表可以得出结论,随着下降的增加,在趋势开始下降之前,验证准确性会有所提高,而损失会减少。

如果dropout率为0.2,则趋势下降的原因可能有两个:
0.2是此数据集,网络和使用的设置参数的实际最小值
需要更多的时间来训练网络。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在Matlab使用Dropout,可以使用随机删除法函数`dropout()`。该函数可以随机删除网络的一些神经元,以减少过拟合的现象。 函数使用方法如下: ```matlab output = dropout(input, drop_prob) ``` 其,`input`是输入数据,`drop_prob`是删除的概率,`output`是函数的输出结果。 例如,以下代码展示了如何在Matlab使用Dropout: ```matlab input = rand(10, 10); drop_prob = 0.5; output = dropout(input, drop_prob); ``` 此代码将对一个大小为10x10的输入矩阵应用Dropout,删除概率为0.5。函数的输出是一个与输入矩阵大小相同的矩阵,其一些元素被随机删除了。 ### 回答2: dropout是一种用于训练深度神经网络的正则化技术,可以有效减少过拟合。在Matlab,可以使用以下步骤来实现dropout: 1. 导入所需的深度学习工具箱: ```matlab import matlab import matlab.layers.* ``` 2. 定义网络架构。可以使用网络对象(Network object)或网络顺序容器(LayerGraph object) ```matlab layers = [ imageInputLayer([32 32 3]) convolution2dLayer(5,20) dropoutLayer(0.5) % 这里的0.5表示保留50%的神经元 fullyConnectedLayer(10) softmaxLayer classificationLayer ]; ``` 3. 创建网络并进行训练。 ```matlab options = trainingOptions('sgdm', 'MaxEpochs', 10); % 定义训练选项,使用随机梯度下降法 net = trainNetwork(trainingData, layers, options); % 训练网络 ``` 这里的trainingData是用于训练的数据集,可以根据实际情况进行调整。 4. 使用训练好的网络进行预测。 ```matlab predictedLabels = classify(net, testData); ``` 这里的testData是用于测试的数据集。 通过使用dropout,我们在训练深度神经网络时可以有效地减少过拟合,并提高模型的泛化能力。 ### 回答3: 在MATLAB,可以使用dropout来实现dropout正则化方法,从而提高深度学习模型的性能和泛化能力。 首先,在MATLAB导入深度学习工具箱,并将训练和测试数据集加载到工作环境。 接下来,在定义深度学习网络模型时,可以使用dropout层在网络的某些层上应用dropout正则化。例如,可以在全连接层之间插入dropout层,可以选择在输入层或隐藏层上使用dropout。 在MATLAB,可以使用"dropoutLayer"函数创建一个dropout层,并指定期望的保留率。例如,可以使用以下代码创建一个保留率为0.5的dropout层: dropoutLayer(0.5) 然后,将dropout层添加到深度学习网络模型的相应位置。例如,可以使用以下代码将dropout层添加到全连接层之间: layers = [fullyConnectedLayer(100) dropoutLayer(0.5) fullyConnectedLayer(50) dropoutLayer(0.5) fullyConnectedLayer(10) softmaxLayer() classificationLayer()] 在训练深度学习模型时,可以使用MATLAB的"trainNetwork"函数指定dropout层是否处于训练状态。默认情况下,dropout层会自动启用,以便在训练期间对输入进行随机丢弃。然而,当在测试或预测阶段使用网络时,应将dropout层设置为禁用。可以使用以下代码指定dropout层的状态: options = trainingOptions('adam', 'Plots', 'training-progress'); options.DropOutRate = 0.5; trainNetwork(trainData, layers, options) 最后,使用训练好的深度学习模型和测试数据,在MATLAB使用"predict"函数进行预测,并评估模型的性能。 dropout是一种有效的正则化方法,可以有效减轻过拟合问题,并提高深度学习模型的泛化能力。在MATLAB,可以通过添加dropout层来实现dropout正则化,并根据需要将dropout层启用或禁用。通过使用dropout,可以更好地应对过拟合问题,并获得更好的深度学习模型性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值