pytorch学习之梯度下降

  • 梯度有方向,导数没有方向,在一维的情况下,导数近似等于梯度

激活函数梯度

Sigmoid函数

  • 使结果在0,1之间
    在这里插入图片描述

在这里插入图片描述
导数:
在这里插入图片描述

tanh函数

  • 常用于RNN,输出在-1,1之间
    在这里插入图片描述
    在这里插入图片描述
    导数:
    在这里插入图片描述

relu函数

  • 目前深度学习常用的激活函数
    在这里插入图片描述
    在这里插入图片描述
    导数:
    在这里插入图片描述

loss及其梯度

MSE 均方误差

  • lo𝑠𝑠 = Σ [𝑦 − 𝑓𝜃(𝑥)]2
  • 梯度: ∇𝑙𝑜𝑠𝑠 / ∇𝜃 = 2 Σ [ 𝑦 − 𝑓𝜃(𝑥) ] ∗ (∇𝑓𝜃(𝑥) / ∇θ)
  • 代码中可以调用 function.mse_loss(a,b) 函数,a为y;b为 𝑓𝜃(𝑥)
  • 下例中 .requires_grad_() 可以帮助记录更新信息
    在这里插入图片描述
  • 使用 torch.autograd.grad(loss, [w1, w2,…]) 计算每项梯度
  • 使用 loss.backward() 计算梯度,并可以使用 .grad() 查看梯度信息(推荐该方法)
    在这里插入图片描述

softmax函数

  • 输出在0,1之间,且所有值的和为1,非常适合多分类问题
    在这里插入图片描述
  • 使用 function.mse_loss(a,dim) 函数对 a 的 dim 维度进行 softmax 计算

在这里插入图片描述

感知机梯度推导

  • 下图中如 x00 上标表示层数编号;下标表示当前层数节点的编号
    在这里插入图片描述
  • 用下面的函数可以求 y2y1导数
    在这里插入图片描述

优化器实例

在这里插入图片描述

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值