![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
torch
like_study_cat
这个作者很懒,什么都没留下…
展开
-
windows下的torch=1.2.0环境配置
神经网络学习小记录48——windows下的torch=1.2.0环境配置学习前言 环境内容 Anaconda安装 下载Cudnn和CUDA 配置torch环境 安装VSCODE学习前言好多人问环境怎么配置,还是出个教程吧。环境内容torch:1.2.0torchvision:0.4.0Anaconda安装最新版本的Anaconda没有VSCODE,如果大家为了安装VSCODE方便可以直接安装旧版的Anaconda,百度网盘连接如下。也可以装新版然后分开装VSCO.转载 2020-08-20 11:39:30 · 11989 阅读 · 4 评论 -
pytorc中的contiguous
本文讲解了pytorch中contiguous的含义、定义、实现,以及contiguous存在的原因,非contiguous时的解决办法。并对比了numpy中的contiguous。contiguous 本身是形容词,表示连续的,关于 contiguous,PyTorch 提供了is_contiguous、contiguous(形容词动用)两个方法 ,分别用于判定Tensor是否是 contiguous 的,以及保证Tensor是contiguous的。PyTorch中的is_contiguous是转载 2020-08-19 15:20:57 · 184 阅读 · 0 评论 -
PyTorch容器(Containers)中几个比较常用的CLASS
一、官方文档首先看官方文档的解释,仅列出了容器(Containers)中几个比较常用的CLASS。CLASS torch.nn.ModuleBase class for all neural network modules.Your models should also subclass this class.import torch.nn as nnimport torch.nn.functional as Fclass Model(nn.Module): def __原创 2020-08-19 14:35:42 · 1035 阅读 · 0 评论 -
Pytorch数据处理
Pytorch:常用工具模块 数据处理在解决深度学习问题的过程中,往往需要花费大量的精力去处理数据,包括图像、文本、语音或其它二进制数据等。数据的处理对训练神经网络来说十分重要,良好的数据处理不仅会加速模型训练,更会提高模型效果。考虑到这点,PyTorch提供了几个高效便捷的工具,以便使用者进行数据处理或增强等操作,同时可通过并行化加速数据加载。数据加载在PyTorch中,数据加载可通过自定义的数据集对象。数据集对象被抽象为Dataset类,实现自定义的数据集需要继承Dataset,并实现两原创 2020-08-18 17:48:05 · 729 阅读 · 0 评论 -
优化Pytorch框架的数据加载过程
硬件层面:将数据放到/dev/shm文件夹,这个目录是linux下一个利用内存虚拟出来的一个目录,这个目录中的文件都是保存在内存中,而不是磁盘上。/dev/shm的容量默认最大为内存的一半大小,使用df -h命令可以看到。winycg@ubuntu:~$ df -hFilesystem Size Used Avail Use% Mounted onudev 79G 0 79G 0% /devtmpfs 16G 11转载 2020-08-18 16:57:35 · 368 阅读 · 0 评论 -
torch.no_grad
requires_gradVariable变量的requires_grad的属性默认为False,若一个节点requires_grad被设置为True,那么所有依赖它的节点的requires_grad都为True。x=Variable(torch.ones(1))w=Variable(torch.ones(1),requires_grad=True)y=x*wx.requires_grad,w.requires_grad,y.requires_gradOut[23]:(False,Tru..原创 2020-08-14 11:49:16 · 199 阅读 · 0 评论 -
torch.gather()和torch.index_select说明
b = torch.Tensor([[1,2,3],[4,5,6]])print bindex_1 = torch.LongTensor([[0,1],[2,0]])index_2 = torch.LongTensor([[0,1,1],[0,0,0]])print torch.gather(b, dim=1, index=index_1)print torch.gather(b, dim=0, index=index_2)观察它的输出结果: 1 2 3 4 5 6[t.原创 2020-08-05 13:27:19 · 887 阅读 · 0 评论 -
backward()说明
1.out.backwark()中out是一个标量此时可以直接使用out.backwark():import torchfrom torch.autograd import Variable#生成一个内容为[2,3]的张量,Varibale 默认是不要求梯度的,如果要求梯度,#需要加上requires_grad=True来说明#这里的Variable是为了设置变量,把a0=2,a1=3设置为两个变量a = Variable(torch.tensor([2,3]),requires_gr原创 2020-08-04 18:25:53 · 707 阅读 · 0 评论