(12) pytorch之优化器

本文详细介绍了PyTorch中的优化器,包括优化器的作用、优化器的更新过程,以及如何在PyTorch中使用SGD和其他常用优化器如Adam。优化器通过损失函数的梯度来更新模型参数,以最小化损失。特别是,文章讲解了SGD的基本属性,如参数管理、学习率和动量,并提到了如何添加参数组以及优化器的状态管理。最后,提到了Adam优化器作为另一个常用的选项。
摘要由CSDN通过智能技术生成

一、优化器:利用损失函数的梯度,更新模型参数,使得损失变小

1.导数:函数再指定坐标轴上的变化率
2.方向导数:指定方向上的变化率
3.梯度的方向:方向导数最大的方向
4.梯度的模长:向量值
5.梯度下降:根据梯度的负方向使loss不断降低

二、pytorch中优化器——Optimizer

各种优化器都在optim包中,eg optim.SGD()
在这里插入图片描述
基本属性:defaults:优化器参数,(net.parameters(),学习率,momentum=0.9(动量,结合当前梯度与上一次更新信息,用于当前更新)控制记忆周期,通常设置为0.9这样会关注之前10次更新的数据)
普通梯度下降:
在这里插入图片描述
pytorch中更新公式为:
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值