深度学习进阶课程03---随机梯度下降算法

在这里插入图片描述
这是上一篇文章中的一幅图,因变量为C,自变量分别为v1和v2
首先来看变化量:
在这里插入图片描述
在这里插入图片描述
Cost函数的梯度向量(gradient vector)定义如下:
在这里插入图片描述
由以上三个公式可以推出:
在这里插入图片描述
为什么要写出这样一个公式,有什么好处呢,继续来看一下
下一步我们设定:
在这里插入图片描述
参数表示学习率
把△v代入上面公式:
在这里插入图片描述

△C<=0,所以C不断减小
所以v的变化:
在这里插入图片描述
再来回顾一下目标函数:
在这里插入图片描述
是平均的cost
现在我们套用刚才得到的方程,可以得到权重和偏向更新方程:
在这里插入图片描述
对于每个训练实例x,都要计算梯度向量gradient vector,如果训练数据集过大,我们要花费很长时间去更新,学习过程太慢,所以,一个变种为:
随机梯度下降算法(stochastic gradient descent):
基本思想:从所有训练实例中取一个小的采样(sample):x1,x2,…,xm(mini-batch)来估计gradient vector,大大提高学习速度
举例:选举调查
如果样本足够大:
在这里插入图片描述

在这里插入图片描述
代入更新方程:
在这里插入图片描述
然后,重新选择一个mini-batch用来训练,直到用完所有的训练实例,一轮epoch完成

基本的理论部分大概就是这样,下一篇文章写一下如何在Python中实现

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值