李沐DL代码学习记录——线性回归 + 基础优化算法

本文探讨了梯度下降中的学习率策略,强调了梯度指向损失函数增加最快方向而非减少最快。讲解了小批量随机梯度下降和线性回归的实现,涉及`torch`库的`backward()`和`trainer`作用,以及学习率衰减和每次batch后重置梯度的重要性。
摘要由CSDN通过智能技术生成

基础优化算法

在这里插入图片描述

梯度下降时,为什么减去学习率乘梯度,梯度是上升最快的方向吗

在这里插入图片描述

梯度确实指向损失函数增长最快的方向吗,如果是负数不是减少最快的方向吗

在这里插入图片描述

小批量随机梯度下降

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

线性回归的从零开始实现

yield关键字 返回返回一个迭代器对象

在这里插入图片描述
在这里插入图片描述

定义优化算法代码解析,即参数的更新

!!!将梯度除以批量大小是为了对梯度进行标准化,不受批量大小的影响

在这里插入图片描述
在这里插入图片描述

backward()的作用域(计算图)和torch.no_grad()的作用(节省内存和开销)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

每个batch size就更新一次梯度,epoch的作用

在这里插入图片描述

线性回归的简单实现

这里的_就地操作,net[0].weight.data.normal_(0,0.01)与net[0].bias.data.fill_(0)

在这里插入图片描述

训练代码解析

trainer.zero_grad()和 trainer.step()分别干了什么

在这里插入图片描述

trainer.zero_grad()为什么是trainer调用,而不是l调用

在这里插入图片描述

backward为什么是l调用,损失张量是计算图的最终输出

在这里插入图片描述

QA

随机梯度下降的随机是指

在这里插入图片描述

一个知识点——学习率衰减,问题不大

在这里插入图片描述

每个batch计算的时候,记得把剃度先清零

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值