机器学习 笔记 (二)logistic regression

逻辑回归(Logistic Regression)

一、代价函数
由之前所学可知线性回归的代价函数为:
在这里插入图片描述
逻辑回归模型中如果继续沿用线性回归模型的代价函数,将会得到一个非凸函数。
所以重新定义逻辑回归的代价函数为:在这里插入图片描述
其中在这里插入图片描述
这样构建的代价函数的特点:当实际的y=1且h(x)也为1时误差为0,
当y=1但h(x)不为1时误差随着h(x)变小而变大;当实际的y=0且h(x)也为0时代价为0,当y=0但h(x)不为0时误差随着h(x)的变大而变大。
简化模型:
在这里插入图片描述
带入代价函数得到:
在这里插入图片描述
简化的函数和梯度下降
逻辑回归中用最小化代价函数的方法,是梯度下降法,正是做线性回归梯度下降的式子。
在这里插入图片描述
但是不同于线性回归,他们更新参数的规则看起来基本相同,但由于假设的定义发生了变化,所以逻辑函数的梯度下降,跟线性回归的梯度下降实际上是两个完全不同的东西。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值