第一反应是为什么不是1/m,虽然效果是一样的,有人说是方便求导,记录一下:
线性回归中代价函数为:
开始为何是除以2m,第一反应不应该除以m么?在吴恩达机器学习视频公开课上讲解是为了其他数学计算的方便。其实这里无论除以2m还是m,代价函数最优化的结果θ 都是相同的。
数学计算的方便:之后利用梯度下降法对J求导,如果是2m2m,求导结果为:∂J∂θi=1m∑i=1m(hθ(x(i))
这里正好除以m,便于计算。
也有人说是通过误差的极大似然估计推出来的。在吴恩达机器学习第50课时4:10也提到了类似的问题说的就是最大似然估计统计的结果。
其实可以理解,都是为了凸函数好算而使用的算法罢了,记住即可,不必深究。
转载自线性回归之代价函数除2m
官方的解释确实是为了梯度下降约掉平方。