pytorch 第二节 神经网络

pytorch 神经网络

torch.sigmoid(a)

relu 梯度保持不变 torch.relu(a)

from torch.nn import functional as F

F.relu()

Typical Loss  : Mean Squared Error   Cross Entropy Loss

MSE 


torch.autograd.grad()

变量需要梯度信息 torch.requires_grad_

x = torch.ones(1)
w = torch.full([1],2)
mse = F.mse_loss(torch.ones(1), x*w)
w.required_grad_()

mse=F.mse_loss(torch.ones(1),x*w)
torch.autograd.grad(mse,[w])  =>(tensor([2.),)

mse.backward()

w.grad=>tensor([2.])

loss.backward

softmax作用 原来概率大的结果放的更大,原来小的压缩在一个小的空间 

a = torch.rand(3)
a.requires_grad_() => tensor([xxx],requires_grad=True)

p = F.softmax(a,dim=0)
p.backward()

p = F.softmax(a,dim=0)

torch.autograd.grad(p[1],[a],retrin_graph=True)
for idx, data in enumerate(train_loader):
    xs, ys = data
    pred1 = model1(xs)
    pred2 = model2(xs)
    

  
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值