吴恩达机器学习课程:Gradient Descent For Linear Regression

Gradient Descent For Linear Regression

Which of the following are true statements? Select all that apply.

  • To make gradient descent converge, we must slowly decrease α over time.
    错误。一般来说越接近局部最低时,曲线的导数越小,梯度下降的幅度就越小(即梯度下降会自动选择较小的幅度)。所以不一定要动态调整α(学习率)的值。
  • Gradient descent is guaranteed to find the global minimum for any function J(θ0, θ1)
    错误:对一个代价函数J(θ0, θ1),若它拥有处在局部最优解的初始值θ0, θ1,则在这一点的导数为0,此时采取梯度下降的算法将无法得到全局最优解。
  • Gradient descent can converge even if α is kept fixed. (But α cannot be too large, or else it may fail to converge.)
    正确。原因同第一项。
  • For the specific choice of cost function J(θ0, θ1)used in linear regression, there are no local optima (other than the global optimum).
    正确。对一个特定的初始值,不能得到代价函数的局部最优解,持续尝试不同的参数组合才能得到局部最优解(或全局最优解),尝试完所有参数组合后才能确定全局最优解。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值