关于随机梯度下降法小心得

在这里插入图片描述
上述代码一次运行后的结果如下
在这里插入图片描述
表明陷入了loss的局部极小值
其他几次运行的结果也不稳定

为了解释上述原因

首先上面用的loss是
在这里插入图片描述
梯度下降法就是每次迭代时计算的是训练样本的误差的和(也叫批量学习batch learning
对于非凸误差空间来说,模型的优化结果取决于权重的随机初始值
可能会陷入局部极小值中出不来。
在这里插入图片描述
为了避开这种情况,我们会使用随机梯度下降法,每一次迭代是每个训练样本的误差去更新,相当于上面的公式的累计和符号去掉

而回到主题,我们上面虽然采用的是SGD(随机梯度下降法)但是由于训练样本数只有四个,过于小,而小数据样本很大程度受限于随机初始值,因为一个迭代周期中(即上面的100次迭代)四个样本算误差的顺序固定着,也就是朝着下降的梯度方向很难有大改变(因为它们假定自己走的方向就是全局极小值的方向,然而殊不知在一步步陷进局部极小值)
但对于大数据而言,样本很大(多样性),也就是说改变方向(就是如果随机初始值很差,往着局部极小值的方向,很靠近)的可能性会大,也就是它的下降方向会更准确。

随机梯度类似于在进行参数估计,因为不是算整体的
在这里插入图片描述
epoch是迭代数

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值