PyTorch——激活函数、损失函数

激活函数

  • torch.sigmoid:范围在[0,1],光滑可导,但在趋近0和1时容易出现梯度离散。
  • torch.tanh:范围在[-1,1]
  • torch.relu/F.relu:不可导,但计算简单常用
  • F.softmax

Loss及其梯度

在这里插入图片描述

MSE:
在这里插入图片描述
autograd.grad
在这里插入图片描述

loss.backward
在这里插入图片描述

Gradient API
在这里插入图片描述

F.softmax
在这里插入图片描述

全连接层

nn.layer
在这里插入图片描述
在这里插入图片描述

类方法:
step 1:
在这里插入图片描述

step 2 :
在这里插入图片描述

step 3:
在这里插入图片描述
nn.ReLU VS F.relu()

nn.ReLU:class-style API 需要类实例化后使用,参数w和b由内部管理,不能私自访问,.parameters可以访问。
F.relu():function-style API 自己管理参数和运算过程。
在这里插入图片描述

交叉熵

在这里插入图片描述
在这里插入图片描述

激活函数与GPU加速

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
GPU加速
在这里插入图片描述
Crossentropy:softmax,log,nn-loss

可视化

  • pip install visdom
  • run server damon
    在这里插入图片描述

单线:
在这里插入图片描述
在这里插入图片描述

多线:
在这里插入图片描述
在这里插入图片描述

visual X:
在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值