20200129-autograd与逻辑回归

torch.autograd

torch.autograd.backward(
	tensor,					#待求导张量
	grad_tensors=None,		#多维度权重
	retain_graph=None,		#保存计算图
	create_graph=False)		#创造导数计算图,用于高阶求导
功能:自动求取梯度
torch.autograd.grad(
	outputs,				#用于求导的张量
	inputs,					#需要梯度的张量
	grad_tensors=None,		#多维度权重
	retain_graph=None,		#保存计算图
	create_graph=False)		#创造导数计算图,用于高阶求导
功能:自动求取梯度

tips:

  1. 梯度不自动清零,需要用如下代码清零
tensor.grad.zero_()		#下划线表原地操作
  1. 依赖于叶子结点的结点,requires_grad默认为True
  2. 叶子结点不可执行in-place(原地操作)

逻辑回归

逻辑回归是线性的二分类模型
表达式:y=f(Wx+b),f为sigmod函数,也称为logistics函数
取值范围为0,1,可设阈值为0.5,当y>0.5时类别为0,当y≤0.5时类别为1

线性回归是分析自变量x与因变量y(标量)之间关系的方法
逻辑回归是分析自变量x与因变量y(概率)之间关系的方法

逻辑回归又称对数几率回归

机器学习模型训练步骤
迭代训练:数据(数据采集、数据划分、数据清洗)
–>模型(线性模型、NN模型)
–>损失函数(线性模型中采用均方差,分类任务可采用交叉熵)
–>优化器

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值