免费链接: Blogger(需翻Q)
文章目录
本节内容
- 梯度下降回顾
- 理解Pytorch模型定义、前向传播、反向传播、更新梯度的过程
- 学会并理解自定义损失函数
- 学会并理解优化器的作用和使用
- 学会并理解自定义学习策略的多种方法
梯度下降回顾
我们首先来简单的回顾一下梯度下降,我们使用一个很简单的例子来说明。
假设我们要进行一元线性回归,即我们想求 y = θ x + b y = \theta x +b
免费链接: Blogger(需翻Q)
我们首先来简单的回顾一下梯度下降,我们使用一个很简单的例子来说明。
假设我们要进行一元线性回归,即我们想求 y = θ x + b y = \theta x +b