pytorch 基础

zero_grad() 梯度清零函数

# 调用backward()函数之前都要将梯度清零,因为如果梯度不清零,
# pytorch中会将上次计算的梯度和本次计算的梯度累加。这样逻辑的好处是,
# 当我们的硬件限制不能使用更大的bachsize时,使用多次计算较小的bachsize的梯度平均值来代替,更方便,
# 坏处当然是每次都要清零梯度。
# 总结就是进来一个batch的数据,计算一次梯度,更新一次网络
optimizer.zero_grad()  # 清空过往梯度
loss.backward()  # 反向传播,计算当前梯度 w.grad = ▽loss/▽w
optimizer.step()  # 根据梯度更新网络参数 w = w - lr*w.grad b = b - lr*b.grad,

iter()函数

iter_data= iter(dataloader)
next_dataloader = iter_data.next()

以访问一次epoch中访问其中一个bachsize大小的数据

len(source_loader),torch loader数据的len 是计算什么?

pytorch中dataloader的大小将根据batch_size的大小自动调整。如果训练数据集有1000个样本,并且batch_size的大小为10,则dataloader的长度就是100。

torch.eye()
Returns a 2-D tensor with ones on the diagonal and zeros elsewhere.
也可以指定位置为“1”值,传入制定index位置的array

x = [2,2,3,1,2,2,0]
torch.eye(4)[x,:] # 会返回指定位置为1,其他位置为0点二维矩阵

torch.ones_like

torch.ones_like(input, dtype=None, layout=None, device=None,> requires_grad=False)
Tensor 返回一个填充了标量值1的张量,其大小与input相同。

model.eval()

pytorch会自动把BN和DropOut固定住,不会取平均,而是用训练好的值。不然的话,一旦test的batch_size过小,很容易就会被BN层导致生成图片颜色失真极大;
在模型测试阶段使用

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值