Pytorch学习笔记(三)

什么是梯度

  • 梯度是是由偏导数构成的向量, 梯度的方向是由最小值指向最大值。

在这里插入图片描述
如何更新参数在这里插入图片描述

梯度优化时常见的问题:

  • local minima
  • Saddle point 鞍点:
    在这里插入图片描述
    在这里插入图片描述

影响优化表现的因素(Optimizer Performance):

  • initial Point
  • Learning Rate
  • Momentum(帮助摆脱局部最优点,找到全局最优)

常见函数及其求导:

在这里插入图片描述

激活函数及其梯度

  • sigmoid/logistic :
    σ ( x ) = 1 1 + e − x \sigma(x) = \frac{1}{1+e^{-x}} σ(x)=1+ex1 σ ′ = σ ( 1 − σ ) \sigma'=\sigma(1-\sigma) σ=σ(1σ)
torch.sigmoid(a)
  • 双曲正切 Tanh
    tanh ⁡ ( x ) = e x − e − x e x + e − x \tanh(x) = \frac{e^x-e^{-x}}{e^x+e^{-x}} tanh(x)=ex+exexex tanh ⁡ ′ ( x ) = 1 − tanh ⁡ 2 ( x ) \tanh'(x) = 1-\tanh^2(x) tanh(x)=1tanh2(x)
torch.tanh(a)
  • Relu
    f ( x ) = { 0 x < 0 x x ≥ 0 f(x)=\begin{cases}0 & x<0\\ x & x \ge0 \end{cases} f(x)={ 0xx<0x0 f ′ ( x ) = { 0 x < 0 1 x ≥ 0 f'(x)=\begin{cases}0 & x<0\\ 1 & x \ge0\end{cases} f(x)={ 01x<0x0
from torch.nn import functional as F
F.relu(a)
torch.relu(a)

典型的loss及其求导

  • MSE
    l o s s = ∑ [ y − ( x w + b ) ] 2 loss = \sum[y-(xw+b)]^2 loss=[y(xw+b)]

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值