1.黄海广教授的完整笔记在pdf的P123~P129
2.正则化线性回归的目标,就是取到J(
θ
\theta
θ)的最小值
3.正则化代价函数的梯度下降算法:
上面的
θ
\theta
θj的更新也可以写成这样子:
右边的
θ
\theta
θj的系数往往是个接近于1但是小于1的数(
α
\alpha
α很小但是m很大),所以每次
θ
\theta
θj的更新都相当于先把自己压缩一点,然后正常更新
4、对于x来说,上标表明该元素属于第几个案例,下标表示该元素属于第几个特征
5、normal equation法求正则化代价函数梯度下降算法的全局最小值:
这一节是完全用电脑来记笔记的,感觉还是没有前几节用笔来记笔记那样印象深刻一点…呜呜呜。