机器学习+机器学习实战
Brignt_run
喜欢模式识别、图像处理和计算机视觉
展开
-
【深度之眼】Pytorch框架班第五期-Week3【任务1】第二节:模型容器与AlexNet构建
模型容器与AlexNet构建 模型容器(Containers) 容器之Sequential nn.Sequential是nn.module的容器,用于按顺序包装一组网络层,使这组网络层被看作为一个整体,可以看做成模型的一个子模块。 class LeNetSequential(nn.Module): def __init__(self, classes): super(LeNetSequential, self).__init__() self.features =原创 2020-08-03 15:45:46 · 162 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-Week2【任务1】第一节:数据读取机制Dataloader与Dataset
人民币二分类 机器学习模型训练步骤 DataLoader 与 Dataset DataLoader torch.utils.data.DataLoader Data(dataset, batch_size=1, shuffle=False, sampler=None, batch_sampler=None, num_workers=0, collate_fn=None, pin_memory=False, drop_list=False, timeout=0, w原创 2020-07-28 21:29:51 · 328 阅读 · 1 评论 -
【深度之眼】Pytorch框架班第五期-Week1任务1第二节:张量简介与创建
张量 张量与矩阵、向量、标量的关系是怎么样的? 标量(scalar) 一个标量表示一个0维的数据,没有方向。 向量(vector) 向量是一个一维的数组,有一个方向,数据沿一个方向排列存放。 矩阵(matrix) 矩阵是一个二维数组,如灰度图像。有行和列两个维度,分别对应图像的高和宽。无法表示RGB图像。 张量(tensor) 张量是一个多维数组,它是标量、向量、矩阵的高维扩展。如RGB图像,第一个维度为图像的高,第二个维度为图像的宽,第三个维度为色彩通道。张量为一个多维数组。 关系: 标量是0阶张量原创 2020-07-27 16:40:18 · 217 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-Week1任务3第一节:autograd与逻辑回归
torch.autograd autograd-自动求导系统 torch.autograd.backward(tensors, grad_tensors=None, retain_graph=None, create_graph=False) 功能:自动求取梯度 tensors: 用于求导的张量, 如loss retain_graph: 保存计算图 create_graph: 创建导数计算图,用于高阶求导 grad_tensors: 多梯度权重 retain_graph import torch imp原创 2020-07-24 18:28:54 · 306 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-Week1任务2第二节:计算图与动态图机制
计算图与动态图机制 计算图 计算图是用来描述运算的有向无环图 计算图有两个主要元素:节点(Node)和边(Edge) 节点表示数据, 如向量, 矩阵, 张量, 边表示运算, 如加减乘除卷积等 用计算图表示: y=(x+w) * (w + 1) a = x + w b = w + 1 y = a * b 计算图与梯度求导 y = (x + w) * (w + 1) a = x + w b = w + 1 y = a * b y对w求导: 叶子节点: 用户创建的节点称为叶子节点,如w和x is_leaf:原创 2020-07-23 22:13:32 · 269 阅读 · 0 评论 -
【深度之眼】Pytorch框架班第五期-深度之眼Week1任务2第一节:张量操作与线性回归
张量操作与线性回归 张量的操作:拼接、切分、索引和变换 一、张量的拼接与切分 1.1 torch.cat(tensors, dim=0, out=None) 功能:将张量按维度dim进行拼接 tensors: 张量序列 dim: 要拼接的维度 1.2 torch.stack(tensors, dim=0, out=None) 功能:在新创建的维度dim上进行拼接 tensors: 张量序列 dim: 要拼接的维度 1.3 torch.chunk(input, chunks, dim=0) 功能: 将原创 2020-07-23 21:25:23 · 314 阅读 · 0 评论