逻辑回归LogisticRegression

1 什么是逻辑回归?

逻辑回归一般指logistic回归,是一种广义的线性回归(generalized linear model),常用于数据挖掘,疾病自动诊断,经济预测等领域。虽然名字里带“回归”,但是它实际上是一种分类方法,不仅能进行分类,还能获取每个类别的概率预测值。常用于两分类问题。
logistic回归通过函数L将w‘x+b对应一个隐状态p,p =L(w‘x+b),然后根据p 与1-p的大小决定因变量的值。如果L是logistic函数,就是logistic回归,如果L是多项式函数就是多项式回归。

2 逻辑回归的损失函数

2.1逻辑回归为何使用Sigmoid函数

Sigmoid函数形式如下:
Sigmoid函数图像
对于函数 g ( z ) = 1 ( 1 + e − z ) g(z)=\frac{1}{(1+e^{-z})} g(z)=(1+ez)1,当z≥0 时,y≥0.5,分类为1,当 z<0时,y<0.5,分类为0。
使用Sigmoid函数原因有两个方面:
1)Sigmoid 函数自身的性质
a. sigmoid 函数连续,单调递增
b. sigmiod 函数关于(0,0.5) 中心对称
c. 对sigmoid函数求导后计算速度快
p = e x 1 + e x p = e x 1 + e x p=ex1+exp=ex1+ex p=ex1+exp=ex1+ex
p ′ = p ∗ ( 1 − p ) p ′ = p ∗ ( 1 − p ) p′=p∗(1−p)p′=p∗(1−p) p=p(1p)p=p(1p)
2)指数族
logistic回归的损失函数为非指数族,逻辑回归认为函数其概率服从伯努利分布,将其写成指数族分布的形式。

2.2逻辑回归的步骤

(1)构造预测函数h
(2)构造损失函数J
(3)令J最小并求得回归参数w

2.3 预测函数的确定

逻辑回归主要用于二分类问题(即输出只有两种,分别代表两个类别),所以利用了Logistic函数(或称为Sigmoid函数),函数形式为:
g ( z ) = 1 ( 1 + e − z ) g(z)=\frac{1}{(1+e^{-z})} g(z)=(1+ez)1

逻辑回归从其原理上来说,其实是实现了一个决策边界
θ 0 + θ 1 x 1 + , . . . , + θ n x n = ∑ i = 0 n θ i x i = θ T x \theta_0+\theta_1x_1+,...,+\theta_nx_n= \sum_{i=0}^n\theta_ix_i=\theta^Tx θ0+θ1x1+,...,+θnxn=i=0nθixi=θTx
构造预测函数:(将回归方程写入其中)
h θ ( x ) = g ( θ T x ) = 1 ( 1 + e − θ T x ) h_\theta(x)=g(\theta^Tx )=\frac{1}{(1+e^{-\theta^Tx })} hθ(x)=g(θTx)=(1+eθTx)1
p = p ( y = 1 ∣ x , θ ) = h θ ( x , θ ) = 1 1 + e − θ T x p=p(y=1|x,\theta)=h_\theta(x,\theta)=\frac{1}{1+e^{-\theta^Tx}} p=p(y=1x,θ)=hθ(x,θ)=1+eθTx1

函数 h θ ( x , θ ) h_\theta(x,\theta) hθ(x,θ)的值,表示结果取1的概率,所以对于因变量x,分类结果为1和0的概率分别为:
p ( y = 1 ∣ x , θ ) = h θ ( x , θ ) p(y=1|x,\theta)=h_\theta(x,\theta) p(y=1x,θ)=hθ(x,θ) p ( y = 0 ∣ x , θ ) = 1 − h θ ( x , θ ) p(y=0|x,\theta)=1-h_\theta(x,\theta) p(y=0x,θ)=1hθ(x,θ)

2.4损失函数的构造

上边两式可改写为:
p ( y ∣ x , θ ) = h θ ( x , θ ) y ( 1 − h θ ( x , θ ) ) 1 − y p(y|x,\theta)=h_\theta(x,\theta)^y(1-h_\theta(x,\theta))^{1-y} p(yx,θ)=hθ(x,θ)y(1hθ(x,θ))1y 上式是在参数 θ \theta θ下,元组类标号为y的后验概率。假设现在已经得到了一个抽样样本,那么联合概率 ∏ i = 1 n p ( y i ∣ X i ; θ ) \prod_{i=1}^np(y_i|X_i;\theta) i=1np(yiXi;θ)的大小就可以反映模型的代价。联合概率的值越大,代价函数越小。

联合概率公式中采用连乘的方法不好计算,可用极大似然估计的方法进行求解,得到最大的参数 θ \theta θ,这个最大的参数将是最佳参数,使得联合概率的值最大,代价值最小。因此就得到了逻辑回归的损失函数:
L ( θ ) = ∏ i = 1 n P ( y i ∣ x i ; θ ) = ∏ i = 1 n ( h θ ( x i , θ ) ) y i ( 1 − h θ ( x i , θ ) ) 1 − y i L(\theta)=\prod_{i=1}^nP(y_i|x_i;\theta)=\prod_{i=1}^n(h_\theta(x_i,\theta))^{y_i}(1-h_\theta(x_i,\theta))^{1-y_i} L(θ)=i=1nP(yixi;θ)=i=1n(hθ(xi,θ))yi(1hθ(xi,θ))1yi 损失函数的对数似然函数为:
l ( θ ) = l o g L ( θ ) = ∑ i = 1 n ( y i l o g h θ ( x i , θ ) ) + ( ( 1 − y i ) l o g ( 1 − h θ ( x i , θ ) ) ) l(\theta)=logL(\theta)=\sum_{i=1}^n(y_ilogh_\theta(x_i,\theta))+((1-y_i)log(1-h_\theta(x_i,\theta))) l(θ)=logL(θ)=i=1n(yiloghθ(xi,θ))+((1yi)log(1hθ(xi,θ))) 得到的这个函数越大,证明我们得到的W就越好.因为在函数最优化的时候习惯让一个函数越小越好,所以我们在前边加一个负号.得到逻辑回归的损失函数公式如下:
J ( θ ) = − l ( θ ) = − ∑ i = 1 n ( y i l o g h θ ( x i , θ ) ) − ( ( 1 − y i ) l o g ( 1 − h θ ( x i , θ ) ) ) J(\theta)=-l(\theta)=-\sum_{i=1}^n(y_ilogh_\theta(x_i,\theta))-((1-y_i)log(1-h_\theta(x_i,\theta))) J(θ)=l(θ)=i=1n(yiloghθ(xi,θ))((1yi)log(1hθ(xi,θ)))

3 逻辑回归的模型

对于模型的训练而言:实质上来说就是利用数据求解出对应的模型的特定的 θ \theta θ。从而得到一个针对于当前数据的特征逻辑回归模型。

3.1模型求解与推导

模型回归得到的是一个最优化模型,求解方法有梯度下降法、牛顿法等,这里求解逻辑回归的损失函数,采用最基本的方法——梯度下降法。

求解步骤如下:

1-随机一组 θ \theta θ.
2-将 θ \theta θ带入交叉熵损失函数,让得到的点沿着负梯度的方向移动.
3-循环第二步.

推导过程

对损失函数求偏导,过程如下:

3.2最终模型

待补充

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Logistic回归是一种逻辑回归方法。它是一种特殊的回归方法,用于对于分类问题中的因变量建立预测模型。这种方法基于学习一个由输入变量到二元输出变量的条件概率来构建预测模型,用于对一个新的样本进行分类。它对于分类问题中的因变量建立预测模型非常有效。 ### 回答2: 逻辑回归是一种用于解决二分类问题的监督学习算法。它是一种基于概率统计的分类模型,可以用于预测分类结果。逻辑回归的输出结果是一个0到1之间的概率值,其含义是该样本属于某一类别的概率。 逻辑回归模型的基本假设是数据服从伯努利分布,也就是数据只有两种可能的取值,被称为正类和负类。对于给定的训练数据集,逻辑回归模型的目标是最大化似然函数,即最大化样本属于正类(或负类)的概率。利用最大似然估计方法,我们可以解出逻辑回归模型的参数。在实际应用中,我们通常使用梯度下降等优化算法来解模型参数。 逻辑回归模型有多种变体,如L1正则化逻辑回归、L2正则化逻辑回归、多项式逻辑回归等。其中,L1正则化逻辑回归可以实现特征选择,可以削减一些不重要的特征,从而简化模型,提高计算速度和模型的泛化能力。 在机器学习领域,逻辑回归是一个常用的模型。它广泛应用于各种领域,如网络广告点击率预测、信用风险评估、医疗诊断等。逻辑回归模型简单易实现,具有较高的解释性,是一个较为理想的分类算法。 ### 回答3: 逻辑回归Logistic Regression)是一种经典的分类算法,在机器学习和统计学领域中得到广泛的应用。它旨在从已有的数据中构建一个能够预测类别的模型,输出结果为概率值,可以用于二分类或多分类问题的解决。 逻辑回归的基本原理是利用一个特定的函数对输入特征进行线性组合,然后将结果输入到一个Sigmoid函数中进行映射,将结果值压缩到0到1的范围内,表示输入属于某一类别的概率。这个Sigmoid函数可以被看作是一个阀门,控制着数据流向最终输出。它将具有很强预测能力的线性组合函数输出转化为概率输出的过程,将出现在中间层的结果值映射到[0,1]范围内,以表达某个样本属于某个类别的概率。 在训练模型时,逻辑回归使用的是最大似然估计的方法来确定模型的参数。在分类训练数据时,需要对样本经过一系列的处理,例如特征提取、特征转换、数据归一化等步骤。训练数据可以通过梯度下降法、牛顿迭代法等优化方法来确定最佳参数。通过此训练过程,模型可以学习到输入特征与输出概率之间的映射关系。 逻辑回归的优点包括了功能简单、速度快、易于实现和修改等等。它是机器学习中最为基本的分类算法之一,在数据挖掘、信用评估、自然语言处理、广告推荐等领域都有广泛的应用。逻辑回归作为一个二分类算法,常被用于解决分类问题。然而,在实际业务中,如何选择不同的逻辑回归模型及参数,对算法的效果和优化有着重要的影响。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值