线性回归中梯度下降法的代价函数除以2m

第一反应是为什么不是1/m,虽然效果是一样的,有人说是方便求导,记录一下:

线性回归中代价函数为: 

开始为何是除以2m,第一反应不应该除以m么?在吴恩达机器学习视频公开课上讲解是为了其他数学计算的方便。其实这里无论除以2m还是m,代价函数最优化的结果θ 都是相同的。

数学计算的方便:之后利用梯度下降法对J求导,如果是2m2m,求导结果为:∂J∂θi=1m∑i=1m(hθ(x(i))

这里正好除以m,便于计算。

也有人说是通过误差的极大似然估计推出来的。在吴恩达机器学习第50课时4:10也提到了类似的问题说的就是最大似然估计统计的结果。

其实可以理解,都是为了凸函数好算而使用的算法罢了,记住即可,不必深究。

转载自线性回归之代价函数除2m

官方的解释确实是为了梯度下降约掉平方。

  • 5
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值