这里我们学习logistics回归的正则化,和之前学习的线性回归正则化相似,代价函数(costfunction)增加了正则项:
梯度下降算法也同样分离了θ0,其他的θ迭代过程也增加了一点由于偏导数变化而增加的一点尾巴:
这里看上去的形式与线性回归的一样,但是由于假设函数不同,所以意义是完全不一样。
这里我们学习logistics回归的正则化,和之前学习的线性回归正则化相似,代价函数(costfunction)增加了正则项:
梯度下降算法也同样分离了θ0,其他的θ迭代过程也增加了一点由于偏导数变化而增加的一点尾巴:
这里看上去的形式与线性回归的一样,但是由于假设函数不同,所以意义是完全不一样。