Coursera机器学习机器学习笔记 为什么线性回归中代价函数除以2m?

转载:http://blog.csdn.net/u010106759/article/details/50380442

线性回归中代价函数为:

J = 1 2 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) 2 J = \frac{1}{2m} \sum_{i=1}^{m} {\left({h}_{\theta }({x}^{\left(i \right)} )-{y}^{\left(i \right)} \right)}^2 J=2m1i=1m(hθ(x(i))y(i))2

为什么是除以 2 m 2m 2m,第一反应不应该除以 m m m么?在吴恩达机器学习视频公开课上讲解是为了后续数学计算的方便。

因为这里无论除以 2 m 2m 2m还是 m m m,代价函数最优化的结果 θ \theta θ都是相同的。利用梯度下降法对 J J J求导,如果是 2 m 2m 2m,求导结果为:

∂ J ∂ θ i = 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) ∂ h θ ( x ( i ) ) ∂ θ \frac{∂J}{∂{θ}_{i}} = \frac{1}{m} \sum_{i=1}^{m}\left({h}_{\theta} ({x}^{(i)})−{y}^{(i)} \right) \frac{∂{h}_{\theta}{\left ({x}^{(i)}\right)}}{∂θ} θiJ=m1i=1m(hθ(x(i))y(i))θhθ(x(i))

这里正好除以 m m m,便于计算。

  • 10
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值