机器学习课程笔记-andrew ng 多参数线性回归

对数据进行scale的原因是:
使用梯度下降法时,下降快,减少迭代次数
 
模型学习的两种方法:
梯度下降法和解方程式法
梯度下降法:
1、需要确定控制下降速度的参数alpha
2、需要多次迭代
3、当特征维度很大时,照样work well
解方程式法
1、不需要确定控制下降速度的参数alpha
2、不需要迭代
3、要求解inv(x'x)
     可能会不可逆,
    1).特征有冗余时 
    2).m<=n,特征太多,m样本总数,n特征维度
    解决方案,删掉一些特征或者进行特征正则化
4、当特征维度n特别大时,解方程速度变慢
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值