torch.autograd
torch.autograd.backward(#自动求取梯度
tensors,#用于求导的张量,如loss
grad_tensors=None,#保存计算图
retain_graph=None,#创建倒数计算图,用于高阶求导
create_graph=False#多梯度权重
)
torch.autograd.grad(#求取梯度
outputs,#用于求导的张量,如loss
inputs,#需要梯度的张量
grad_outputs=None,#创建倒数计算图,用于高阶求导
retain_graph=None,#保存计算图
create_graph=False#多梯度权重
)
PS:
1、梯度不自动清零
2、依赖于叶子结点的结点,require_grad默认为True
3、叶子结点不可执行in-place
逻辑回归
逻辑回归(Logistic Regression)是一种用于解决二分类问题的统计学习方法。尽管名字中包含"回归"一词,但实际上逻辑回归是一种分类算法,而不是回归算法。
逻辑回归的目标是根据输入特征的线性组合,预测一个样本属于某个类别的概率。它基于一个称为"逻辑函数"或"sigmoid函数"的特殊函数,将线性组合的结果映射到一个介于0和1之间的概率值。
逻辑回归的核心思想是通过最大似然估计来估计模型的参数,以使预测的概率尽可能地接近实际观测到的类别标签。在训练阶段,逻辑回归算法会通过对数似然损失函数最小化来拟合模型参数。一旦模型参数确定,就可以使用该模型来进行新样本的分类预测。
逻辑回归有一些优点,包括计算效率高、模型简单且易于解释、对于大规模数据集也能处理得很好。它在许多领域中都被广泛应用,例如医学、金融、市场营销等。
需要注意的是,逻辑回归是针对二分类问题的算法。对于多分类问题,可以使用一对多(One-vs-Rest)或一对一(One-vs-One)的策略将逻辑回归扩展到多个类别。
总结起来,逻辑回归是一种用于解决二分类问题的分类算法,通过逻辑函数将输入特征的线性组合映射为概率值,并通过最大似然估计来拟合模型参数。
模型表达式: