吴恩达机器学习笔记22-正则化逻辑回归模型(Regularized Logistic Regression)

  针对逻辑回归问题,我们在之前的课程已经学习过两种优化算法:我们首先学习了使用
梯度下降法来优化代价函数?(?),接下来学习了更高级的优化算法,这些高级优化算法需要
你自己设计代价函数?(?)。

  自己计算导数同样对于逻辑回归,我们也给代价函数增加一个正则化的表达式,得到代
价函数:

要最小化该代价函数,通过求导,得出梯度下降算法为:

注:看上去同线性回归一样,但是知道 ℎ? (?) = ?(???),所以与线性回归不同。

注意:
  1. 虽然正则化的逻辑回归中的梯度下降和正则化的线性回归中的表达式看起来一样,
但由于两者的ℎ? (?)不同所以还是有很大差别。
  2. ?0不参与其中的任何一个正则化。

转载于:https://www.cnblogs.com/sl0309/p/10402920.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值