Logistic回归

《机器学习实战》 第5章直接开始梯度下降的代码,没有搞明白。补上《机器学习》这部分的原理

线性模型

f(x)=ωTx+b 是直线方程。确定 ω b 即可确定模型。

线性回归

线性回归通过给定数据集,确定线性模型,即确定参数ω b

最小二乘法

基于均方误差最小化来确定线性模型中参数

(ω,b)=argmin(w,b)i=1m(f(xi)yi)2

即求得的直线,与给定数据集之间欧式距离之和最小

E(w,b)=i=1m(f(xi)yi)2=i=1m(yiωxib)2

即求使 E 最小的ω,b,分别对参数求偏导求解

对数线性回归

当输出在指数尺度上时,可以对线性模型进行改进

lny=ωTx+b

广义线性模型

对任一单调可微函数,均可以用来对线性模型进行扩展。

y=g1(ωTx+b)

对数几率回归(logistic regression)

对于二值分类,可以通过广义线性模型,对线性模型进行改造。理想的{0-1}分类函数是单位阶跃函数。

y=0,x<00.5,x=01,x>0

但单位阶跃函数不连续,因此使用 对数几率函数(logistic function)
y=11+ez

带入广义线性模型,得到
y=11+e(ωTx+b)

对上式进行变化,可得
lny1y=ωTx+b

y输出区间为(0,1),将 y 视为x为正例的似然值, 1y 为反例似然值,则比值 y1y 为x为正例的相对可能性。取对数 lny1y 得到 对数几率

梯度下降法

对logistic回归,求解参数 ω 和b,有多种优化算法,例如梯度下降法,牛顿法。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值