PyTorch 之 优化算法 torch.optim

13 篇文章 0 订阅
10 篇文章 0 订阅

各种优化算法在 torch.optim 这个包里面

torch.optim 这个包里面有很多的优化算法,比如我们常用的随机梯度下降算法,添加动量的随机梯度下降算法。

&&

一、原理

训练数据的终极目的是得到一个训练好的模型,即这个模型里面的参数是最优的,也就是这些参数使得损失函数达到了最小,或者说模型收敛了(参数不再改变了)

二、 一阶优化算法

什么是梯度:

梯度就是导数,梯度是导数的多变量表达式,还有一种说法就是“梯度是函数增加最快的方向”,前面可视化过梯度,就是一个数值。

一阶优化算法包括梯度下降算法:

通过梯度来更新参数,使损失函数达到最小

在这里插入图片描述

三、损失函数通常的调用方式:

1. 定义优化方法:

optimizer = torch.optim.SGD(model.parameters(),lr = 0.01,momentum = 0.9)

model.parameters():模型的参数

lr = 0.01:学习率

momentum = 0.9:动量

2. 在进行优化之前,要先将梯度归零:

 optimizer.zero_grad()

3. 反向传播,自动求导,得到每个参数的梯度:

 loss.backward()

4. 进一步的更新:

optimizer.step()
  • 2
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值