转发

<div id="article_content" class="article_content clearfix csdn-tracking-statistics" data-pid="blog" data-mod="popu_307" data-dsm="post">
                    <link rel="stylesheet" href="https://csdnimg.cn/release/phoenix/template/css/ck_htmledit_views-e2445db1a8.css">
                        <div class="htmledit_views">
                
<h2 id="1学习率" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t0"></a>
1、学习率</h2>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
步长的选择:你走的距离长短,越短当然不会错过,但是耗时间。步长的选择比较麻烦。步长越小,越容易得到局部最优化(到了比较大的山谷,就出不去了),而大了会全局最优</p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
一般来说,前1000步,很大,0.1;到了后面,迭代次数增高,下降0.01,再多,然后再小一些。&nbsp;<br><img src="https://img-blog.csdn.net/20170108110633678?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvc2luYXRfMjY5MTczODM=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast" alt="这里写图片描述" title="" style="border:0px;"></p>
<h2 id="2权重" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t1"></a>
2、权重</h2>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<strong>梯度消失的情况,</strong>就是当数值接近于正向∞,求导之后就更小的,约等于0,偏导为0&nbsp;<br><strong>梯度爆炸,</strong>数值无限大</p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<strong>对于梯度消失现象:激活函数</strong>&nbsp;<br>
Sigmoid会发生梯度消失的情况,所以激活函数一般不用,收敛不了了。Tanh(x),没解决梯度消失的问题。&nbsp;<br>
ReLu Max(0,x),比较好,代表Max门单元,解决了梯度消失的问题,而且起到了降维</p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<strong>权重初始化</strong>,可以随机也可以一开始设置一定的图形分布,用高斯初始化</p>
<h2 id="3层数" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t2"></a>
3、层数</h2>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
越多,灵敏度越好,收敛地更好,激活函数也越多,曲线的性能也更好&nbsp;<br>
但是,神经元过拟合,并且计算量较大层数越多。在节点多的情况下一般会考虑:Drop-out&nbsp;<br>
节点太多也不好,所以需要删除一些无效的节点&nbsp;<br>
但是去掉节点,这里却是随机的,随机去掉(30%-60%)的节点&nbsp;<br>
注意:随机的选择,去掉一些节点。但是drop-out也不一定是避免过拟合&nbsp;<br>
很常见。一般不drop-out一定会过拟合,有drop-out概率低一些</p>
<h2 id="4过拟合" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t3"></a>
4、过拟合</h2>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
上面的drop-out就算一种。其他过拟合可能也会使用:BN,batch normalization(归一化)</p>
<blockquote style="border-width:0px 0px 0px 18px;border-left-style:solid;border-left-color:rgb(204,204,204);font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;background:rgb(238,238,238) none;">
<p>在caffe操作时候,模型训练中如何解决过拟合现象?</p>
</blockquote>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
看到验证集的数据趋于平稳,譬如第1000次之后,验证集的loss平稳了,那么就截取1000次,把学习率降低为原来的0.1,拿来第10000次结果,修改文件,继续训练。&nbsp;<br>
.</p>
<h2 id="5loss设计与观察" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t4"></a>
5、Loss设计与观察</h2>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
一般来说分类就是Softmax, 回归就是L2的loss. 但是要注意loss的错误范围(主要是回归), 你预测一个label是10000的值, 模型输出0, 你算算这loss多大, 这还是单变量的情况下. 一般结果都是nan. 所以不仅仅输入要做normalization, 输出也要。&nbsp;<br>
准确率虽然是评测指标, 但是训练过程中还是要注意loss的. 你会发现有些情况下, 准确率是突变的, 原来一直是0, 可能保持上千迭代, 然后突然变1. 要是因为这个你提前中断训练了, 只有老天替你惋惜了. 而loss是不会有这么诡异的情况发生的, 毕竟优化目标是loss.&nbsp;<br>
对比训练集和验证集的loss。 判断过拟合, 训练是否足够, 是否需要early stop的依据</p>
<hr style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;"><h1 id="二caffe训练时loss变为nan的原因" style="font-size:28px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t5"></a>
二、caffe训练时Loss变为nan的原因</h1>
<blockquote style="border-width:0px 0px 0px 18px;border-left-style:solid;border-left-color:rgb(204,204,204);font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;background:rgb(238,238,238) none;">
<p>本节转载于公众号平台:极市平台</p>
</blockquote>
<h2 id="1梯度爆炸" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t6"></a>
1、梯度爆炸</h2>
<blockquote style="border-width:0px 0px 0px 18px;border-left-style:solid;border-left-color:rgb(204,204,204);font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;background:rgb(238,238,238) none;">
<p>原因:梯度变得非常大,使得学习过程难以继续</p>
</blockquote>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<strong>现象:观察log,注意每一轮迭代后的loss。loss随着每轮迭代越来越大,最终超过了浮点型表示的范围,就变成了NaN。</strong>&nbsp;<br>
措施:&nbsp;<br>
1. 减小solver.prototxt中的base_lr,至少减小一个数量级。如果有多个loss layer,需要找出哪个损失层导致了梯度爆炸,并在train_val.prototxt中减小该层的loss_weight,而非是减小通用的base_lr。&nbsp;<br>
2. 设置clip gradient,用于限制过大的diff</p>
<h2 id="2不当的损失函数" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t7"></a>
2、不当的损失函数</h2>
<blockquote style="border-width:0px 0px 0px 18px;border-left-style:solid;border-left-color:rgb(204,204,204);font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;background:rgb(238,238,238) none;">
<p>原因:有时候损失层中loss的计算可能导致NaN的出现。比如,给InfogainLoss层(信息熵损失)输入没有归一化的值,使用带有bug的自定义损失层等等。</p>
</blockquote>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<strong>现象:观测训练产生的log时一开始并不能看到异常,loss也在逐步的降低,但突然之间NaN就出现了。</strong>&nbsp;<br>
措施:看看你是否能重现这个错误,在loss layer中加入一些输出以进行调试。&nbsp;<br>
示例:有一次我使用的loss归一化了batch中label错误的次数。如果某个label从未在batch中出现过,loss就会变成NaN。在这种情况下,可以用足够大的batch来尽量避免这个错误。</p>
<h2 id="3不当的输入" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t8"></a>
3、不当的输入</h2>
<blockquote style="border-width:0px 0px 0px 18px;border-left-style:solid;border-left-color:rgb(204,204,204);font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;background:rgb(238,238,238) none;">
<p>原因:输入中就含有NaN。</p>
</blockquote>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<strong>现象:每当学习的过程中碰到这个错误的输入,就会变成NaN。观察log的时候也许不能察觉任何异常,loss逐步的降低,但突然间就变成NaN了。</strong>&nbsp;<br>
措施:重整你的数据集,确保训练集和验证集里面没有损坏的图片。调试中你可以使用一个简单的网络来读取输入层,有一个缺省的loss,并过一遍所有输入,如果其中有错误的输入,这个缺省的层也会产生NaN。&nbsp;<br>
案例:有一次公司需要训练一个模型,把标注好的图片放在了七牛上,拉下来的时候发生了dns劫持,有一张图片被换成了淘宝的购物二维码,且这个二维码格式与原图的格式不符合,因此成为了一张“损坏”图片。每次训练遇到这个图片的时候就会产生NaN。&nbsp;<br>
良好的习惯是,你有一个检测性的网络,每次训练目标网络之前把所有的样本在这个检测性的网络里面过一遍,去掉非法值。</p>
<h2 id="4池化层中步长比核的尺寸大" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t9"></a>
4、池化层中步长比核的尺寸大</h2>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
如下例所示,当池化层中stride &gt; kernel的时候会在y中产生NaN</p>
<pre class="prettyprint" style="margin-left:22px;font-size:14px;line-height:25.2px;background-color:rgb(255,255,255);" name="code" οnclick="hljs.copyCode(event)"><code class="hljs css"><ol class="hljs-ln"><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="1"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line">    <span class="hljs-tag" style="color:rgb(0,0,255);"><span class="hljs-selector-tag">layer</span></span> <span class="hljs-rules">{</span></div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="2"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line">      <span class="hljs-rule"><span class="hljs-attribute" style="color:rgb(163,21,21);"><span class="hljs-attribute">name</span></span>:<span class="hljs-value"><span class="hljs-value"> <span class="hljs-string" style="color:rgb(163,21,21);"><span class="hljs-string">"faulty_pooling"</span></span></span></span></span></div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="3"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-value">      type: <span class="hljs-string" style="color:rgb(163,21,21);"><span class="hljs-string">"Pooling"</span></span></span></div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="4"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-value">      bottom: <span class="hljs-string" style="color:rgb(163,21,21);"><span class="hljs-string">"x"</span></span></span></div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="5"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-value">      top: <span class="hljs-string" style="color:rgb(163,21,21);"><span class="hljs-string">"y"</span></span></span></div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="6"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-value">      pooling_param {</span></div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="7"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-value">      pool: AVE</span></div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="8"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-value">      stride: <span class="hljs-number"><span class="hljs-number">5</span></span></span></div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="9"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-value">      kernel: <span class="hljs-number"><span class="hljs-number">3</span></span></span></div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="10"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line"><span class="hljs-value">      </span>}</div></div></li><li><div class="hljs-ln-numbers"><div class="hljs-ln-line hljs-ln-n" data-line-number="11"></div></div><div class="hljs-ln-code"><div class="hljs-ln-line">    }</div></div></li></ol></code><div class="hljs-button" data-title="复制"></div></pre>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<a href="http://stackoverflow.com/questions/33962226/common-causes-of-NaNs-during-training" rel="nofollow" style="color:rgb(29,88,209);text-decoration:none;" target="_blank">http://stackoverflow.com/questions/33962226/common-causes-of-NaNs-during-training</a></p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
.&nbsp;<br>
.</p>
<h1 id="三一些训练时候出现的问题" style="font-size:28px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t10"></a>
三、一些训练时候出现的问题</h1>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<em>本节转载于公众号深度学习大讲堂,文章《caffe代码夜话1》</em></p>
<h2 id="1为啥label需要从0开始" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t11"></a>
1、为啥label需要从0开始?</h2>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
在使用SoftmaxLoss层作为损失函数层的单标签分类问题中,label要求从零开始,例如1000类的ImageNet分类任务,label的范围是0~999。这个限制来自于Caffe的一个实现机制,label会直接作为数组的下标使用,具体代码SoftmaxLoss.cpp中133行和139行的实现代码。</p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<img src="https://img-blog.csdn.net/20170120093427979?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvc2luYXRfMjY5MTczODM=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast" alt="这里写图片描述" title="" style="border:0px;"></p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
132行第一层for循环中的outer_num等于batch size,对于人脸识别和图像分类等单标签分类任务而言,inner_num等于1。如果label从1开始,会导致bottom_diff数组访问越界。&nbsp;<br>
.</p>
<h2 id="2为什么caffe中引入了这个innernuminnernum等于什么" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t12"></a>
2、为什么Caffe中引入了这个inner_num,inner_num等于什么</h2>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
从FCN全卷积网络的方向去思考。FCN中label标签长度=图片尺寸&nbsp;<br>
caffe引入inner_num使得输入image的size可以是任意大小,innuer_num大小即为softmax层输入的height*width&nbsp;<br>
.</p>
<h2 id="3在标签正确的前提下如果倒数第一个全连接层numoutput-实际的类别数caffe的训练是否会报错" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t13"></a>
3、在标签正确的前提下,如果倒数第一个全连接层num_output &gt; 实际的类别数,Caffe的训练是否会报错?</h2>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
不会报错且无影响&nbsp;<br>
.</p>
<h2 id="4bn中的useglobalstatus" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t14"></a>
4、BN中的use_global_status</h2>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<img src="https://img-blog.csdn.net/20170120093948343?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvc2luYXRfMjY5MTczODM=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast" alt="这里写图片描述" title="" style="border:0px;">&nbsp;<br>
图2. ResNet部署阶模型Proto文件片段</p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
但是如果直接拿这个Proto用于训练(基于随机初始化),则会导致模型不收敛,原因在于在Caffe的batch_norm_layer.cpp实现中,use_global_stats==true时会强制使用模型中存储的BatchNorm层均值与方差参数,而非基于当前batch内计算均值和方差。</p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
首先看use_global_stats变量是如何计算的:&nbsp;<br><img src="https://img-blog.csdn.net/20170120094000409?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvc2luYXRfMjY5MTczODM=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast" alt="这里写图片描述" title="" style="border:0px;">&nbsp;<br>
图3. use_global_stats计算</p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
再看这个变量的作用:&nbsp;<br><img src="https://img-blog.csdn.net/20170120094007003?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvc2luYXRfMjY5MTczODM=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast" alt="这里写图片描述" title="" style="border:0px;">&nbsp;<br>
图4. use_global_stats为true时的行为</p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
以下代码在use_global_stats为false的时候通过moving average策略计算模型中最终存储的均值和方差:&nbsp;<br><img src="https://img-blog.csdn.net/20170120094013625?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvc2luYXRfMjY5MTczODM=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast" alt="这里写图片描述" title="" style="border:0px;">&nbsp;<br>
图5. BatchNorm层均值和方差的moving average</p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
因此,对于随机初始化训练BatchNorm层,只需要在Proto文件中移除use_global_stats参数即可,Caffe会根据当前的Phase(TRAIN或者TEST)自动去设置use_global_stats的值。&nbsp;<br>
.</p>
<h2 id="5batchnorm层是否支持in-place运算为什么" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t15"></a>
5、BatchNorm层是否支持in place运算,为什么?</h2>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
BN是对输入那一层做归一化操作,要对每个元素-均值/标准差,且输入输出规格相当,是可以进行in place。&nbsp;<br>
标准的ReLU函数为max(x, 0),而一般为当x &gt; 0时输出x,但x &lt;= 0时输出negative_slope。RELU层支持in-place计算,这意味着bottom的输出和输入相同以避免内存的消耗。&nbsp;<br>
.&nbsp;<br>
.</p>
<h1 id="四过拟合解决dropoutbatch-normalization" style="font-size:28px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t16"></a>
四、过拟合解决:dropout、batch Normalization</h1>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
来源于:<a href="https://github.com/exacity/deeplearningbook-chinese/releases/" rel="nofollow" style="color:rgb(29,88,209);text-decoration:none;" target="_blank">https://github.com/exacity/deeplearningbook-chinese/releases/</a></p>
<h2 id="1dropout另类bagging类似随机森林rf" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t17"></a>
1、dropout——另类Bagging(类似随机森林RF)</h2>
<blockquote style="border-width:0px 0px 0px 18px;border-left-style:solid;border-left-color:rgb(204,204,204);font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;background:rgb(238,238,238) none;">
<p>引用自Dropout作者:&nbsp;<br>
在标准神经网络中,每个参数接收的导数表明其应该如何变化才能使最终损失函数降低,并给定所有其它神经网络单元的状态。因此神经单元可能以一种可以修正其它神经网络单元的错误的方式进行改变。而这就可能导致复杂的共适应(co-adaptations)。由于这些共适应现象没有推广到未见的数据,将导致过拟合。我们假设对每个隐藏层的神经网络单元,Dropout通过使其它隐藏层神经网络单元不可靠从而阻止了共适应的发生。因此,一个隐藏层神经元不能依赖其它特定神经元去纠正其错误。(来源:赛尔译文 Dropout分析)</p>
</blockquote>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
Dropout可以被认为是集成非常多的大神经 网络的实用Bagging方法。当每个模型是一个大型神经网络时,这似乎是不切实际的,因为训练和 评估这样的网络需要花费很多运行时间和内存。&nbsp;<br>
Dropout提供了一种廉价的Bagging集成近似,能够训练和评估指数级的神经网络。&nbsp;<br>
操作方法:将一些单元的输出乘零就能有效地删除一个单元。</p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<img src="https://img-blog.csdn.net/20170122193957258?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvc2luYXRfMjY5MTczODM=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast" alt="这里写图片描述" title="" style="border:0px;"></p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<strong>(1)具体工作过程:</strong></p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
Dropout以概率p关闭神经元,相应的,以大小为q=1-p的概率开启其他神经元。每个单个神经元有同等概率被关闭。当一个神经元被丢弃时,无论其输入及相关的学习参数是多少,其输出都会被置为0。&nbsp;<br>
丢弃的神经元在训练阶段的前向传播和后向传播阶段都不起作用:因为这个原因,每当一个单一的神经元被丢弃时,训练阶段就好像是在一个新的神经网络上完成。&nbsp;<br>
训练阶段,可以使用<strong>伯努利随机变量、二项式随机变量</strong>来对一组神经元上的Dropout进行建模。&nbsp;<br>
(来源:赛尔译文 Dropout分析)&nbsp;<br><img src="https://img-blog.csdn.net/20170130144545907?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvc2luYXRfMjY5MTczODM=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast" alt="这里写图片描述" title="" style="border:0px;"></p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<strong>(2)dropout类型:</strong>&nbsp;<br>
正向dropout、反向dropout。&nbsp;<br>
反向Dropout有助于只定义一次模型并且只改变了一个参数(保持/丢弃概率)以使用同一模型进行训练和测试。相反,直接Dropout,迫使你在测试阶段修改网络。因为如果你不乘以比例因子q,神经网络的输出将产生更高的相对于连续神经元所期望的值(因此神经元可能饱和):这就是为什么反向Dropout是更加常见的实现方式。</p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<strong>(3)dropout与其他规则</strong></p>
<blockquote style="border-width:0px 0px 0px 18px;border-left-style:solid;border-left-color:rgb(204,204,204);font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;background:rgb(238,238,238) none;">
<p>故反向Dropout应该与限制参数值的其他归一化技术一起使用,以便简化学习速率选择过程</p>
</blockquote>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
正向Dropout:通常与L2正则化和其它参数约束技术(如Max Norm1)一起使用。正则化有助于保持模型参数值在可控范围内增长。&nbsp;<br>
反向Dropout:学习速率被缩放至q的因子,我们将其称q为推动因子(boosting factor),因为它推动了学习速率。此外,我们将r(q)称为有效学习速率(effective learning rate)。总之,有效学习速率相对于所选择的学习速率更高:由于这个原因,限制参数值的正则化可以帮助简化学习速率选择过程。&nbsp;<br>
(来源:赛尔译文 Dropout分析)</p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<strong>(4)优势:</strong></p>
<ul style="margin-left:30px;font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;"><li style="list-style-type:disc;">
<p>看作是对输入内容的信息高度智能化、自适应破坏的一种形式,而不是 对输入原始值的破坏。</p>
</li><li style="list-style-type:disc;">
<p>Dropout不仅仅是训练一个Bagging的集成模型,并且是共享隐藏单元的集成模型。这意味着无论其他隐藏单元是否在模型中,每个隐藏单元必须都能够表现良好。隐藏单元必须准备好进行模型之间的交换和互换。</p>
</li><li style="list-style-type:disc;">
<p>计算方便是Dropout的一个优点。训练过程中使用Dropout产生 n 个随机二进制 数与状态相乘,每个样本每次更新只需 O(n)的计算复杂度。</p>
</li><li style="list-style-type:disc;">
<p>Dropout的另一个显著优点是不怎么限制适用的模型或训练过程。几乎在所有 使用分布式表示且可以用随机梯度下降训练的模型上都表现很好。包括前馈神经网 络、概率模型,如受限玻尔兹曼机(Srivastava et al., 2014),以及循环神经网络(Bayer and Osendorfer, 2014; Pascanu et al., 2014a)。许多其他差不多强大正则化策略对模 型结构的限制更严格。</p>
</li></ul><p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
<strong>(5)劣势:</strong></p>
<ul style="margin-left:30px;font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;"><li style="list-style-type:disc;">
<p><strong>Dropout是一个正则化技术,它减少了模型的有效容量。为了抵消这种影响,我们必须增大模型规模。</strong>不出意外的话,使 用Dropout时最佳验证集的误差会低很多,但这是以更大的模型和更多训练算法的迭&nbsp;<br>
代次数为代价换来的。对于非常大的数据集,正则化带来的泛化误差减少得很小。在&nbsp;<br>
这些情况下,使用Dropout和更大模型的计算代价可能超过正则化带来的好处。</p>
</li><li style="list-style-type:disc;">
<p><strong>只有极少的训练样本可用时,Dropout不会很有效。</strong>在只有不到 5000 的样本 的Alternative Splicing数据集上 (Xiong et al., 2011),贝叶斯神经网络 (Neal, 1996)比Dropout表现更好&nbsp;<br>
(Srivastava et al., 2014)。当有其他未分类的数据可用时,无监 督特征学习比Dropout更有优势。&nbsp;<br>
.</p>
</li></ul><h2 id="2batch-normalization" style="font-size:20px;line-height:1.5;font-family:Verdana, Arial, Helvetica, sans-serif;"><a name="t18"></a>
2、batch Normalization</h2>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
batch normalization的主要目的是改善优化,但噪音具有正则化的效果,有时使Dropout变得没有必要。&nbsp;<br><strong>参数训练过程中多层之间协调更新的问题:</strong>在其他层不改变的假设下,梯度用于如何更新每一个参数。但是,一般情况下会同时更新所有层。 这造成了很难选择一个合适的学习速率,因为某一层中参数更新的效果很大程度上取决 于其他所有层。&nbsp;<br>
batch normalization可应用于网络 的任何输入层或隐藏层。设 H 是需要标准化的某层的minibatch激励函数,布置为 设计矩阵,每个样本的激励出现在矩阵的每一行中。标准化 H,我们替代它为&nbsp;<br><img src="https://img-blog.csdn.net/20170122200353600?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvc2luYXRfMjY5MTczODM=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast" alt="这里写图片描述" title="" style="border:0px;">&nbsp;<br>
其中 μ 是包含每个单元均值的向量,σ 是包含每个单元标准差的向量。&nbsp;<br>
反向传播这些操作,计算均值和标准差,并应用它们于标准化 H。这意味着,梯度不会再简单地增加 hi 的标准差或均值;标准化操作会 除掉这一操作的影响,归零其在梯度中的元素。</p>
<p style="font-family:Verdana, Arial, Helvetica, sans-serif;font-size:14px;line-height:25.2px;">
以前的方法添加代价函数的惩罚,以鼓励单位标准化激励统计量,或是 在每个梯度下降步骤之后重新标准化单位统计量。&nbsp;<br>
前者通常会导致不完全的标准化, 而后者通常会显著地消耗时间,因为学习算法会反复改变均值和方差而标准化步骤 会反复抵消这种变化。&nbsp;<br>
batch normalization重新参数化模型,以使一些单元总是被定 义标准化,巧妙地回避了这两个问题。</p>
            </div>
                </div>

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值