PyTorch笔记5--autograd与逻辑回归

torch.autograd

torch.autograd.backward(#自动求取梯度
    tensors,#用于求导的张量,如loss
    grad_tensors=None,#保存计算图
    retain_graph=None,#创建倒数计算图,用于高阶求导
    create_graph=False#多梯度权重
)
torch.autograd.grad(#求取梯度
    outputs,#用于求导的张量,如loss
    inputs,#需要梯度的张量
    grad_outputs=None,#创建倒数计算图,用于高阶求导
    retain_graph=None,#保存计算图
    create_graph=False#多梯度权重
)

PS:

        1、梯度不自动清零

        2、依赖于叶子结点的结点,require_grad默认为True

        3、叶子结点不可执行in-place

逻辑回归

逻辑回归(Logistic Regression)是一种用于解决二分类问题的统计学习方法。尽管名字中包含"回归"一词,但实际上逻辑回归是一种分类算法,而不是回归算法。

逻辑回归的目标是根据输入特征的线性组合,预测一个样本属于某个类别的概率。它基于一个称为"逻辑函数"或"sigmoid函数"的特殊函数,将线性组合的结果映射到一个介于0和1之间的概率值。

逻辑回归的核心思想是通过最大似然估计来估计模型的参数,以使预测的概率尽可能地接近实际观测到的类别标签。在训练阶段,逻辑回归算法会通过对数似然损失函数最小化来拟合模型参数。一旦模型参数确定,就可以使用该模型来进行新样本的分类预测。

逻辑回归有一些优点,包括计算效率高、模型简单且易于解释、对于大规模数据集也能处理得很好。它在许多领域中都被广泛应用,例如医学、金融、市场营销等。

需要注意的是,逻辑回归是针对二分类问题的算法。对于多分类问题,可以使用一对多(One-vs-Rest)或一对一(One-vs-One)的策略将逻辑回归扩展到多个类别。

总结起来,逻辑回归是一种用于解决二分类问题的分类算法,通过逻辑函数将输入特征的线性组合映射为概率值,并通过最大似然估计来拟合模型参数。

模型表达式:

  • 5
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值