吴恩达老师机器学习课程个人笔记(第七课)

1.黄海广教授的完整笔记在pdf的P123~P129

2.正则化线性回归的目标,就是取到J( θ \theta θ)的最小值
在这里插入图片描述

3.正则化代价函数的梯度下降算法:
在这里插入图片描述
上面的 θ \theta θj的更新也可以写成这样子:
在这里插入图片描述右边的 θ \theta θj的系数往往是个接近于1但是小于1的数( α \alpha α很小但是m很大),所以每次 θ \theta θj的更新都相当于先把自己压缩一点,然后正常更新

4、对于x来说,上标表明该元素属于第几个案例,下标表示该元素属于第几个特征

5、normal equation法求正则化代价函数梯度下降算法的全局最小值:
在这里插入图片描述







这一节是完全用电脑来记笔记的,感觉还是没有前几节用笔来记笔记那样印象深刻一点…呜呜呜。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值