基于逻辑回归的分类预测 学习笔记

一、逻辑回归简述

逻辑(Logistic)回归是一种二分类算法,虽然叫做“回归”,但是是属于分类算法。本质上是一个广义线性模型。与线性回归不同之处在于输出需要经过sigmoid函数的映射,sigmoid函数是一个函数值在[0,1]之间的函数,若设定阈值为0.3,则若输出大于0.3,记为“1”,反之记为“0”。即达到了二分类的目的。阈值可根据实际情况自行设定。可以看出,逻辑回归的输出可看作是一个二项分布。下面详细介绍其学习规则的推导和损失函数的推导。

1、sigmoid函数

sigmoid函数图像为:
在这里插入图片描述

函数表达式为 g ( x ) = 1 1 + e x g(x)=\frac{1}{1+e^x} g(x)=1+ex1
对每一个样本写出回归模型: θ 1 x 1 + θ 2 x 2 + . . . + θ n x n = θ T X 1 \theta_1x_1+\theta_2x_2+...+\theta_nx_n=\theta^TX_1 θ1x1+θ2x2+...+θnxn=θTX1
代入sigmoid函数即为: h ( x ) = g ( θ T x ) = 1 1 + e − θ T x h(x)=g(\theta^Tx)=\frac{1}{1+e^-\theta^Tx} h(x)=g(θTx)=1+eθTx1

2、通过最大似然函数推导其学习规则

假定样本服从以下二项分布:

y 0 1
p 1-h(x) h(x)

则联合概率为
( h ( x ) ) y ( 1 − h ( x ) ) 1 − y (h(x))^y(1-h(x))^{1-y} (h(x))y(1h(x))1y
似然函数为
L ( θ ) = ∏ i = 1 m ( h ( x ( i ) ) y ( i ) ) ( 1 − h ( x ( i ) ) ) 1 − y ( i ) L(\theta)=\prod_{i=1}^m(h(x^{(i)})^{y(i)})(1-h(x^{(i)}))^{1-y(i)} L(θ)=

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值