【机器学习】LR回归(逻辑回归)和softmax回归

1. LR回归

Logistic回归(Logistic Regression,简称LR)是一种常用的处理二类分类问题的模型

在二分类问题中,把因变量y可能属于的两个类分别称为负类和正类,则因变量y∈{0, 1},其中0表示负类,1表示正类。线性回归
在这里插入图片描述
的输出值在负无穷到正无穷的范围上,不太好解决这个问题。于是我们引入非线性变换,把线性回归的输出值压缩到(0, 1)之间,那就成了Logistic回归
在这里插入图片描述
使得h(x)≥0.5时,预测y=1,而当h(x)<0.5时,预测y=0。Logistic回归的名字中尽管带有回归二字,可是它是实打实的分类算法。

那用什么非线性变换把线性回归转化成Logistic回归呢?


Logistic回归的函数形式

Logistic回归模型的函数形式为:
在这里插入图片描述
其中x代表样本的特征向量,g(z)代表sigmoid函数,公式为
在这里插入图片描述
下图为sigmoid函数的图形。
在这里插入图片描述
此外非常重要的,sigmoid函数求导后为:
在这里插入图片描述

所以Logistic回归模型就是:
在这里插入图片描述
对于给定的输入变量,根据选择的参数确定输出变量y=1的概率,即后验概率在这里插入图片描述
在这里插入图片描述


Logistic回归的损失函数

Logistic回归中的参数是θ,怎么估计这个参数呢?那么就要定义损失函数,通过最小化损失函数来求解参数。

线性回归中的损失函数是平方误差损失函数,如果Logistic回归也采用这种损失函数形式,那么得到的损失函数将是一个非凸函数。这意味着损失函数会有很多局部极小值,因此不容易找到全局最小值。比如左边这个就是非凸函数的形状,明显右边这个平滑的图不容易陷入局部极小值陷阱。
在这里插入图片描述
假设训练数据集为{(x1,y1),(x2,y2),…(xm, ym)},即有m个样本,令x=[x0, x1, …, xn]T,x0=1,即每个样本有n个特征,y∈{0, 1}。于是把L

  • 2
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
在深度学习中,Softmax正则化是一种用于提高模型性能和泛化能力的技术。它通过在损失函数中引入正则化项来减小模型的复杂度,防止过拟合,并提高模型的概率校准能力。 Softmax正则化的具体步骤如下: 1. 计算模型的logits,即模型对每个类别的预测得分。 2. 将logits输入到Softmax函数中,将其转换为概率分布。 3. 使用交叉熵损失函数来比较模型的预测概率分布与真实标签之间的差异。 4. 引入正则化项,将其添加到损失函数中。正则化项通常是模型参数的L2范数,用于惩罚模型的复杂度。 通过引入正则化项,Softmax正则化可以限制模型的参数,使其更加平滑和简单,从而提高模型的泛化能力和概率校准能力。 以下是一个使用PyTorch实现Softmax正则化的示例代码: ```python import torch import torch.nn as nn import torch.optim as optim # 定义模型 class Model(nn.Module): def __init__(self): super(Model, self).__init__() self.fc = nn.Linear(10, 2) # 假设输入维度为10,输出维度为2 def forward(self, x): x = self.fc(x) return x # 定义损失函数和优化器 model = Model() criterion = nn.CrossEntropyLoss() # 交叉熵损失函数 optimizer = optim.SGD(model.parameters(), lr=0.01) # 随机梯度下降优化器 # 训练模型 for epoch in range(num_epochs): # 前向传播 outputs = model(inputs) loss = criterion(outputs, labels) # 添加正则化项 l2_reg = torch.tensor(0.) for param in model.parameters(): l2_reg += torch.norm(param, 2) # L2范数 loss += lambda_reg * l2_reg # lambda_reg是正则化系数 # 反向传播和优化 optimizer.zero_grad() loss.backward() optimizer.step() ``` 在上述代码中,我们首先定义了一个包含一个线性层的简单模型。然后,我们使用交叉熵损失函数来计算模型的损失,并在损失函数中添加了L2正则化项。最后,我们使用随机梯度下降优化器来更新模型的参数。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值