【Pytorch实战(四)】线性判决与逻辑回归

  • 【Pytorch实战(三)】线性回归中介绍了线性回归。线性判决与线性回归是类似的,区别在于线性回归的“标签”通常是较为连续的取值,而线性判决的“标签”往往只有几个可能的取值,例如【0,1】。
  • 在线性回归中,经常使用MSE损失torch.nn.MSELoss()、L1损失torch.nn.L1Loss和SmoothL1损失torch.nn.SmoothL1Loss等。相应地,在线性判决中也需使用合适的损失。对于二元判决常用BCE(Binary Cross Entropy)损失;对于多元则常用Cross Entropy损失。
  • 以二元判决为例,计算BCE损失需要获得一个预测概率,这需要使用逻辑回归算法(对应于torch.sigmoid()函数);若拓展至多元则对应于softmax函数。具体公式不再赘述,可参照结合实例理解pytorch中交叉熵损失函数进行理解。
  • 实际实现中,二元的torch.nn.BCELoss()torch.nn.BCEWithLogitsLoss()又有所区别,前者需传入预测概率和真实标签,而后者则需传入W与X线性运算的结果Z和真实标签。多元的则使用torch.nn.CrossEntropyLoss即可。
  • 以下为例程:
import torch
import torch.nn
import torch.optim

x = torch.tensor([[1., 2<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值