pytorch:model.train()、grad()、.add()、.add_()、.mul()、.mul_()、.exp()、.exp_()、.step())

需要在训练时候添加model.train(),在测试时添加model.eval()。其中,model.train()是保证BN层用每一批数据的均值和方差,model.eval()是保证BN用全部训练数据的均值和方差。对于Dropout,model.train()是随机抽取一部分网络连接来训练更新参数,而model.eval()是利用到了所有网络连接。

常用的激活函数有relu、sigmoid、tanh、softmax、softplus

x.grad是查看所求得x的梯度值。

add()和.add_()都能把两个张量加起来,但.add_是in-place操作,比如x.add_(y),x+y的结果会存储到原来的x中。Torch里面所有带"_"的操作,都是in-place的。

x.mul(y)或x.mul_(y)实现把x和y点对点相乘,其中x.mul_(y)是in-place操作,会把相乘的结果存储到x中。值得注意的是,x必须是tensor, y可以是tensor,也可以是数。

.exp()和.exp_()都能实现以e为底的指数,区别是.exp_()是in-place操作。

optimizer.step(),更新优化器的所有参数

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值