学习信也杯-train代码学习

F.nll_loss是什么

negative likelihood loss
2. nll_loss ,函数全称是negative log likelihood loss, 函数表达式为

f(x,class)=-x[class]

例如:假设x=[1,2,3], class=2, 则

f(x,class)=-x[2]=-3

pytorch中.item()的作用

pytorch中,.item()方法 是得到一个元素张量里面的元素值
具体就是 用于将一个零维张量转换成浮点数,比如计算loss,accuracy的值
就比如:
loss = (y_pred - y).pow(2).sum()
print(loss.item())

@torch.no_grad()和model.eval()的区别

被包裹 的部分会进行前向计算,但是不涉及梯度计算,加快计算速度,节省计算资源。
因为def test只进行前向的inference,不涉及反向传播,不需要计算梯度,故使用torch.no_grad()

model.eval()
主要作用在于保证dropout和batchnorm正常运行;
并且保证不进行反向传播;
虽然不进行反向传播;但是该操作不能阻止正向传播时梯度的计算;用@torch.no_grad()可以阻止正向计算时梯度计算导致的资源浪费
https://blog.csdn.net/weixin_46559271/article/details/10565865

parser = argparse.ArgumentParser使用

model.state_dict()作用

model.reset_parameters()

def test

这里的test函数挺有意思,不仅算了test,又把train、valid和test全都算了一遍,方便打印。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值