逻辑回归(Logistic Regression)模型推导、最大似然估计、鸢尾花代码实践

逻辑回归可用来解决{0,1}二分类问题,例入根据信用卡用户的性别、年龄、学历、收入等特征预测是否会逾期,利用自然语言处理技术预测文本情感(用词向量表示的文本本质也是具有多维的特征)。对于包含多个特征的样本数据,如果用特征变量X对目标变量y进行多元线性回归Z=W^TX+b, 得到的将是(-\infty ,+\infty )的值域。这显然不能解决二分类的问题。因此需要对数据进一步转换,将目标变量映射到(0,1)区间。这边引入sigmod函数

h(z) = \frac{1}{1+e^{-z}}

sigmod函数图像如下:

该函数的定义域属于R, 值域为(0,1),且在0附近函数的导数变化最大,对于微小的变化很敏感,而在两端的区域对数值变化不敏感且很快靠近0和1,因此引入该函数可增强模型的鲁棒性(Robust) 。将多元线性回归和sigmod函数结合,以概率的形式解释分类问题,可得到如下公式。

p(y=1|x;w,b) = \frac{1}{1+e^{-(w^{T}x+b)}}, p(y=0|x;w,b) = \frac{e^{-(w^{T}x+b)}}{1+e^{-(w^{T}x+b)}}

将两个公式结合成一个表达式:

p(y|x) = p(y=1|x;w,b)^{y}\cdot[1- p(y=1|x;w,b)]^{1-y}

 截止目前,分类问题变成了求解概率的问题,即已知样本出现的情况下,求解模型的参数&#x

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值