pytorch
刘二老师课程
尤齐
不断学习机器人技术的探索者
展开
-
pytorch[10]
下面流程图和代码不一致 relu层和pooling层位置不一样。3*w*h 变为1* w’ * h“卷积运算 一个卷集核 最后只有 一个输出通道。卷积完成后 c w h 都可能变化。卷积核组合m x n x w x h。多个卷积核,分别输出,再cat拼接。m个卷积核 m个输出通道。原创 2022-11-13 16:36:10 · 414 阅读 · 0 评论 -
pytorch[9]
此方法无法解决输出结果之间的抑制关系, 也就是说有可能两个输出概率相同。用此方法 最后一层不需要激活函数。代码 注意最后一层不激活。所以改用Softmax层。原创 2022-11-12 22:26:34 · 178 阅读 · 0 评论 -
pytorch[8]
用来帮助我们加载数据,比如说做shuffle(提高数据集的随机性),batch_size,能拿出Mini-Batch进行训练。它帮我们自动完成这些工作。5、inputs, labels = data中的inputs的shape是[32,8],labels 的shape是[32,1]。分别是为了加载数据集,获取数据索引,获取数据总量。4、len函数的返回值 除以 batch_size 的结果就是每一轮epoch中需要迭代的次数。1、DataSet 是抽象类,不能实例化对象,主要是用于构造我们的数据集。原创 2022-11-12 20:42:34 · 162 阅读 · 0 评论 -
pytorch[7]
这里是输入 8 维输出2维 再x矩阵转化为1维度标量。行数代表数据数,列数代表特征数。原创 2022-11-12 14:32:05 · 204 阅读 · 0 评论 -
pytorch[6]
torchvison 下载数据集 (下载地址,下载测试集还是训练集,是否从网上下载)二者比较,右侧多个F.sigmoid。逻辑回归 ——做分类任务。原创 2022-11-12 20:43:31 · 100 阅读 · 0 评论 -
pytorch[5]
此处b为标量 但由于广播机制 他会自动补成3x1矩阵 能够整体相加运算。3构造损失函数和优化器。原创 2022-11-12 09:41:35 · 209 阅读 · 0 评论 -
pytorch 刘二[4]
back propagation 源代码。原创 2022-11-11 20:46:01 · 110 阅读 · 0 评论 -
pytorch刘二【3】
梯度变化原创 2022-11-11 10:35:32 · 135 阅读 · 0 评论