pytorch学习笔记3-卷积神经网络

1、torch.reshape()

2、torch.max()

3、torch.no_grad()

torch.no_grad()用于停止autograd模块的工作,停止所有的梯度计算,但是不会影响dropout层和batch norm层的行为

model.eval()用于训练和验证状态的切换,只会影响dropout和batchnorm的行为,不会影响梯度计算,但是在验证模式下,不会进行梯度的反向传播(不是只有反向传播才有梯度计算吗?

4、print的格式化输出

print('the accuray is {}%'.format(25))

print(f'the accuracy is {accu} %')

print('the accuracy is %f' %(accu))

5、torch.nn.BatchNorm2d(C)

BatchNorm过程是对每个通道独立进行的

  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值