斯坦福大学机器学习笔记(2)

梯度下降(gradient descent)

梯度下降利用迭代的方法,更新 θ 参数,以提高回归问题中拟合的准确性。其步骤如下。

  • 以某个初值来初始化 θ ,例如 θ=(0.1,0.2,0.3)T
  • 使用 J(θ) 来表示代价函数,不断更新其中 θ 的值来最小化 J(θ) ,对于 θ 中的每个向量元素 θj ,更新式子为: θj:=θjα(/θj)J(θ) 。利用这个式子,同时更新每个 θj,0jn

假设 J(θ) 是一个只有一个变量的函数,则下图展示了它的曲线以及 θ 的对应变化。
梯度下降示意图
从图中可以看出,由于曲线的斜率在从 θ0 θ1... 的过程中在不断变小,所以 θ 的下降幅度也在变小,最终会到达曲线的最低点,也就是 J(θ) 的最小值处。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值