刘二大人《Pytorch深度学习实践》第六讲逻辑斯蒂回归

线性回归和逻辑斯蒂回归的区别

线性回归一般用于预测连续值变量,如房价预测问题。
线性回归的一般表达式为:
在这里插入图片描述
代价函数为MSE(均方误差):
在这里插入图片描述
其中权重theta的更新,一般可选用梯度下降等相关优化方法。由于MSE对特征值的范围比较敏感,一般情况下对会对特征进行归一化处理。

逻辑回归虽然叫做回归,但是其主要解决分类问题。可用于二分类,也可以用于多分类问题。由于线性回归其预测值为连续变量,其预测值在整个实数域中。而对于预测变量y为离散值时候,可以用逻辑回归算法(Logistic Regression)逻辑回归的本质是将线性回归进行一个变换,该模型的输出变量范围始终在 0 和 1 之间。
在这里插入图片描述

本质上,逻辑回归就是线性回归再进行了sigmod变换,其值变化到(0,1).

课上代码

from torch.nn import ModuleList
import torch
import torch.nn.functional as F

# 准备数据
x_data = torch.Tensor ([[1.0], [2.0], [3.0]])
y_data = torch.Tensor ([[0], [0], [1]])

# 定义网络
class LogisticRegressionModel (torch.nn.Module):
  def __init__(self):
    super(LogisticRegressionModel, self).__init__()
    self.linear = torch.nn.Linear (1, 1)
  
  def forward (self, x):
    y_pred = F.sigmoid (self.linear(x))
    return y_pred

model = LogisticRegressionModel ()
# 定义优化器和损失函数
criterion = torch.nn.BCELoss (size_average = False)
optimizer = torch.optim.SGD(model.parameters(), lr = 0.01)

for epoch in range (1000):
  y_pred = model (x_data)
  loss = criterion (y_pred, y_data)
  print (epoch, loss.item())

  optimizer.zero_grad()
  loss.backward ()
  optimizer.step()

print ('w=', model.linear.weight.item())
print ('b=', model.linear.bias.item())

x_test = torch.Tensor ([[4.0]])
y_test = model (x_test)
print ('y_pred = ', y_test.data)

交叉熵函数的理解

在这里插入图片描述
1.y’是预测值,y是真实值,如果想让loss足够小,那么y’和y越接近越好
2. y如果是1,则loss = -ylogy’,y‘是0-1之间,则logy’在负无穷到0之间,y‘如果等于1则损失函数是0,如果和y的值越来越不接近,loss的值就会越来越大,y等于0同理

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值