一、梯度消失、梯度爆炸以及Kaggle房价预测
随机初始化模型参数
在神经网络中,通常需要随机初始化模型参数。下面我们来解释这样做的原因。
如果将每个隐藏单元的参数都初始化为相等的值,那么在正向传播时每个隐藏单元将根据相同的输入计算出相同的值,并传递至输出层。**在反向传播中,每个隐藏单元的参数梯度值相等。因此,这些参数在使用基于梯度的优化算法迭代后值依然相等。**之后的迭代也是如此。在这种情况下,无论隐藏单元有多少,隐藏层本质上只有1个隐藏单元在发挥作用。因此,正如在前面的实验中所做的那样,我们通常将神经网络的模型参数,特别是权重参数,进行随机初始化。
二、考虑环境因素
协变量偏移:协变量偏移P(y∣x),同理可以假设为在x不变的情况下y的概率,而现实是x发生了变化导致y发生了变化,所以就发生了协变量偏移,x为变量。
标签偏移:标签偏移是在P(x∣y),在y的条件下x的概率,可以假设为y不变的情况下x的概率,而现实是y导致x发生了变化,而y是变化的所以就发生了标签偏移,因为y是标签。
概念偏移:另一个相关的问题出现在概念转换中,即标签本身的定义发生变化的情况。这听起来很奇怪,毕竟猫就是猫。的确,猫的定义可能不会改变,但我们能不能对软饮料也这么说呢?事实证明,如果我们周游美国,按地理位置转移数据来源,我们会发现,即使是如图所示的这个简单术语的定义也会发生相当大的概念转变。
“相关推荐”对你有帮助么?
-
非常没帮助
-
没帮助
-
一般
-
有帮助
-
非常有帮助
提交