第一种优化其实是负优化,因为1/2m的位置是最小二乘法的位置,为了保持在求导过程中的同等约束所以改了2后还是要在下降的损失函数里除以相等的数 ,而如果不除以相等数,也不过是加大的学习率而已,没有起到优化收敛最小值的意义。但是加大精度是否能够直接对损失函数放大比例?不确定
理解梯度下降实现多元回归的过程
最新推荐文章于 2022-08-09 08:45:15 发布
第一种优化其实是负优化,因为1/2m的位置是最小二乘法的位置,为了保持在求导过程中的同等约束所以改了2后还是要在下降的损失函数里除以相等的数 ,而如果不除以相等数,也不过是加大的学习率而已,没有起到优化收敛最小值的意义。但是加大精度是否能够直接对损失函数放大比例?不确定