pytorch 框架
文章平均质量分 69
One__Way
From the beginning
展开
-
【one way的pytorch学习笔记】(七) Multi GPU 训练(未完..请忽略)
模型并行训练原创 2022-08-23 04:59:52 · 498 阅读 · 0 评论 -
【pytorch】pytorch 1.2中tensorboard无法显示graph解决办法
背景这两天使用 pytorch 1.2.0 版本自带的tensorboard, 却发现无法显示出模型的graph,无论是官网的教程还是网上的示例还是自己写的例子,均不成功.出现情况如下:我的环境: Python3.7 pytorch 1.2.0 torchvision 0.4.0 tensorboard 1.14在上网查了pytorch forum 和其他论坛发现很多人出现了和我一样的...原创 2019-10-04 22:53:03 · 3964 阅读 · 4 评论 -
pytorch 上采样 upsample 时align_corners 设为true 还是false
背景今天遇到了一个问题, 在写上采样 upsample的时候到底 align_corners 设为true 还是falsetalk is cheap按照pytorch doc 中的示例:>>> input = torch.arange(1, 5, dtype=torch.float32).view(1, 1, 2, 2)>>> inputtensor...原创 2019-10-01 06:39:21 · 17550 阅读 · 5 评论 -
【one way的pytorch学习笔记】(六) 构建网络的标准流程
构建分类网络的套路流程引用相关包写一段代码,先引个包:import torchimport torchvisionimport torchvision.transforms as transformsfrom torch.utils.data import Dataset, DataLoaderimport matplotlib.pyplot as pltimport numpy...原创 2019-09-26 04:47:21 · 484 阅读 · 0 评论 -
【one way的pytorch学习笔记】(五)构建基础神经网络LeNet
基础LeNet定义网络import torchimport torch.nn as nnimport torch.nn.functional as Fclass Net(nn.Module): def __init__(self): super(Net, self).__init__() # 1 input image channel, 6 ...原创 2019-09-25 02:52:13 · 325 阅读 · 0 评论 -
【one way的pytorch学习笔记】(四)autograd的流程机制原理
本文为对YouTube博主 Elliot Waite所讲视频的记录与思考,视频地址 PyTorch Autograd Explained - In-depth Tutorialautograd 流程图a = torch.tensor(2.0,requires_grad = True)b = torch.tensor(3.0)c = a*b 前项的计算图如下:每个方框代表一个tens...原创 2019-09-24 05:36:31 · 3935 阅读 · 9 评论 -
【one way的pytorch学习笔记】(三)leaf 叶子(张量)
先导在pytorch的tensor类中,有个is_leaf的属性,姑且把它作为叶子节点. is_leaf 为False的时候,则不是叶子节点, is_leaf为True的时候为叶子节点(或者叶张量)所以问题来了: leaf的作用是什么?为什么要加 leaf?我们都知道tensor中的 requires_grad()属性,当requires_grad()为True时我们将会记录tensor的运...原创 2019-09-23 20:43:09 · 10359 阅读 · 3 评论 -
【one way的pytorch学习笔记】(二)autograd自动求导
autograd 是 pytorch 构建神经网络的核心当把tensor的属性 .requires_grad置为True时,pytorch则会追踪在这个tensor上的接下来的所有操作。然后当使用.backward()时,将会自动求导。所有分支上的梯度值将会被累计在 .grad中可以使用with torch.no_grad(): 来暂停梯度记录(可以用在evaluation中)用.ba...原创 2019-09-23 06:25:10 · 625 阅读 · 0 评论 -
【one way的pytorch学习笔记】(一) tensor的基础操作
声明未初始化的矩阵,但在使用之前不包含明确的已知值。创建未初始化的矩阵时,当时分配的内存中的任何值都将显示为初始值tensor这些矩阵是 tensor 类型的矩阵构造一个未初始化的5x3矩阵x = torch.empty(5, 3)print(x)tensor([[ 6.6065e-23, 4.5584e-41, -3.0199e-06], [ 3.0943...原创 2019-09-19 20:39:10 · 593 阅读 · 0 评论 -
【pytorch】是否应该把ReLu或者sigmoid放在 __init__中
背景学习Pytorch 创建模型的时候,总会遇到一些困惑:不知道是否应该把ReLu或者sigmoid放在 __init__中是不知道要把layer放在 _init_() 中还是 forwad() 中也不知道到底该使用nn.Conv2d 还是F.conv2d.理解请移步另一篇Pytoch 中 torch.nn 与 torch.nn.functional 的区别另附此为我在pyt...原创 2019-09-04 07:19:19 · 524 阅读 · 0 评论 -
【pytorch】torch.nn 与 torch.nn.functional 的区别
在初学Pytorch 创建模型的时候,总会出现不知道要把layer放在 __init__下还是torch.nntorch.nn 这个大模块下面存的主要是 Module类, 也就是说 torch.nn.Conv2d这种其实是个 Module类,在类中初始化了torch.nn.functional...原创 2019-09-04 07:03:03 · 8713 阅读 · 5 评论 -
【pytorch】nn.ModuleList 与nn.Sequential 的区别
nn.ModuleListClass torch.nn.ModuleList(modules=None)简单的说,就是把子模块存储在list中.它类似于list, 既可以 append 操作,也可以做 insert 操作,也可以 extend 操作. 但是由于把layers存入Modulelist中后只是完成了存储作用,所以不能直接在forward中直接运行,需要通过索引调出相应的subm...原创 2019-09-02 23:36:34 · 2022 阅读 · 0 评论