机器学习笔记

吴恩达视频笔记

梯度下降

特征缩放

应该是代码中的归一化吧,使特征的值都处于相近的范围内可加快梯度下降的速度。

学习率

若学习率过大,则可能导致损失函数不收敛,值变大,误差更大,此时需要减小学习率。
若学习率足够小,则每次迭代后损失函数(代价函数)都会下降。
但是若学习率过小,则会导致收敛速度慢的问题。
所以可以绘制损失函数随迭代步数变化的曲线弄清到底发生了什么。

因此,可以尝试一些学习率,然后进行图像的绘制,对此进行调整,得到一个较好的学习率

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值