Gradient descent and others

Gradient descent and others

Batch gradient descent

Procedure

  • 在循环中跌倒公式\(\theta_j:=\theta_j-\alpha{1\over{m}}\sum_{i=1}^m(h_{\theta}(x^{(i)})-y^{(i)})x_j^{(i)}\)
  • 只有迭代完所有的数据, 才更新\(\theta\)

Stochastic gradient descent

Procedure

  • 将原始数据打乱
  • 在循环中跌倒公式\(\theta_j:=\theta_j-\alpha(h_{\theta}(x^{(i)})-y^{(i)})x_j^{(i)}\)
  • 与Batch梯度下降的公式不同, 少了\(\sum_{i=1}^m\), 这就是随机梯度下降的特性, 它不想Batch梯度下降一样, 需要迭代完所有的数据才能更新\(\theta\), 而是迭代了一个样本就会更新\(\theta\)

Mini-batch gradient descent

Features

  • 新增了b变量, 表示每一次迭代b个样本

Procedure

  • 选定好b
  • 使用for循环语句, for i = 1, 1+b, ..., 迭代公式\(\theta_j:=\theta_j-\alpha{1\over{b}}\sum_{k=i}^{k+b}(h_{\theta}^{(k)}-y^{(k)})x_j^{(k)}\)

学习路\(\alpha\)的选择

  • 可以确定两个常量const1和const2
  • 公式\(\alpha={const1\over{iterNum+const2}}\)
  • 好处, 当我们迭代的次数增加, \(\alpha\)会自动的减小

Loss Function与Cost Function

  • Loss Function一般使用L表示, 它表示的是单个样本的损失
  • Cost Function一般使用J表示, 它表示的是所有样本的损失
  • 在机器学习中, 我们的目的是优化J
posted @ 2019-03-17 10:47 Andrew_Chan 阅读( ...) 评论( ...) 编辑 收藏
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值