吴恩达机器学习学习笔记 --- 多变量线性回归

(1)符号表示

(2)假设函数 

(3)损失函数

(4)梯度下降法用于多变量线性回归

(5)特征缩放

 (6)均值归一化

【目的:让梯度下降速度更快,收敛迭代次数更少】

 (7)代价函数与迭代次数

【右侧为自动收敛检测】

【学习速率过大,可能无法达到收敛】 

【选择更小的学习速率已到达收敛】

 (8)多项式回归

【通过设置变量与变量之间的关系转化为线性回归】

 

(9)正规方程

【不需要特征缩放】

【梯度下降与正规方程之间的对比】

 【X^T X 不可逆在pinv(伪逆)也可以求解               //  inv(逆)】

 

【若发现X^T X 不可逆的解决方案

        1. 检查是否有多余的特征,如果有多余的就删掉,直到没有多余的为止

        2. 检查是否有过多的特征,若特征过多,如果少一些不影响的话,删掉一些特征,或者正则化

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值