PyTorch入门(五)——autograd与逻辑回归

autograd——自动求导系统

torch.autograd.backward

torch.autograd.backward(tensor,
						grad_tensors=None,
						retain_graph=None,
						create_graph=False)

功能:自动求梯度
tensor:用于求导的张量,如loss
retain_graph:保存计算图
create_graph:创建导数计算图,用于高阶求导
grad_tensors:多梯度权重

torch.autograd.grad

torch.autograd.grad(outputs,
					inputs,
					grad_tensors=None,
					retain_graph=None,
					create_graph=False)

功能:求取梯度
outputs:用于求导的张量,如loss
inputs:需要梯度的张量
retain_graph:保存计算图
create_graph:创建导数计算图,用于高阶求导
grad_tensors:多梯度权重

注意

  1. 梯度不自动清零
  2. 依赖于叶子结点的结点,requires_grad默认为True
  3. 叶子结点不能执行in-place操作

逻辑回归

逻辑回归是线性二分类模型
模型的表达式:
y = f ( W X + b ) y=f(WX+b) y=f(WX+b)
f ( x ) = 1 1 + e − x f(x)=\frac{1}{1+e^{-x}} f(x)=1+ex1
其中 f ( x ) f(x) f(x)称为Sigmod函数,也称为Logistic函数,图像如图所示:
在这里插入图片描述
c l a s s = { 0 y < 0.5 1 y ≥ 0.5 class= \left\{\begin{matrix} 0& y<0.5\\ 1& y\ge 0.5 \end{matrix}\right. class={01y<0.5y0.5
线性回归是分析自变量x与因变量y(标量)之间关系的方法
逻辑回归是分析自变量x与因变量y(概率)之间关系的方法

逻辑回归也叫对数几率回归:
l n y 1 − y = W X + b ln\frac{y}{1-y}=WX+b ln1yy=WX+b

此外还有对数回归:
l n y = W X + b lny=WX+b lny=WX+b

机器学习模型训练的要素:

  1. 数据
  2. 模型
  3. 损失函数
  4. 优化器
  5. 迭代训练
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值