pytorch
文章平均质量分 85
pytorch学习和使用相关内容
Campsisgrandiflora
记录下当前的学习内容,记录下当前的所思所想,书写与图画是为了更好地总结与思考,想做的事从现在开始就做,持之以恒地做一件事情,持续地学习与思考
展开
-
拼拼凑凑的pytorch学习——实现mini-batch梯度下降,随机梯度下降
目录mini-batch梯度下降随机梯度下降在上一篇(拼拼凑凑的pytorch学习——神经网络训练)中我们说到过,pytorch中SGD优化器会使用全部传入的数据来计算梯度,所以如果传入了所有数据,那么就是相当于批量梯度下降,那么如果实现mini-batch梯度下降以及随机梯度下降呢?可以从数据供给的角度去考虑。这里仍旧使用上一篇中的例子mini-batch梯度下降mini-batch梯度下降,就是将数据分为多个批次,每次投入一批数据进行训练,所有的数据全部训练过一遍后为一个epochpytor原创 2021-02-27 21:58:40 · 2221 阅读 · 1 评论 -
拼拼凑凑的pytorch学习——神经网络训练
目录前置准备准备训练数据网络结构构建方式初始化网络层信息构建前向传播计算过程选择损失函数选择优化器开始训练前置准备有python环境,安装好pytorch因为纯粹是为了演示训练过程,具体训练的内容并不是很重要,所以干脆来个简单点的,也好清楚地展示下面将训练一个玩具神经网络,判断一个向量(x,y)位于第几象限,数据随机生成,网络结构只使用前向神经网络准备训练数据先写一个向量类# 向量类class Vector: def __init__(self, x, y): s原创 2021-02-27 18:46:00 · 578 阅读 · 1 评论