Pytorch
文章平均质量分 65
昵称格式错误
这个作者很懒,什么都没留下…
展开
-
Pyorch之numpy与torch之间相互转换
目录代码输出numpy中的ndarray转化成pytorch中的tensor : torch.from_numpy()pytorch中的tensor转化成numpy中的ndarray : numpy()代码import numpy as npimport torchnp_arr = np.array([1,2,3,4])tor_arr=torch.from_n...原创 2018-08-15 11:12:18 · 84911 阅读 · 0 评论 -
Pytorch之第一次构建神经网络(二)
本文为第一次构建神经网络系列第二篇探讨如何向神经网络中传入参数,得到返回结果系列第一篇:https://blog.csdn.net/qq_37385726/article/details/81740386系列第二篇:https://blog.csdn.net/qq_37385726/article/details/81742247系列第三篇:https://blog.csdn....原创 2018-08-16 15:27:13 · 979 阅读 · 0 评论 -
Pytorch之第一次构建神经网络(三)
本文为第一次构建神经网络系列第三篇探讨如何构建损失函数和基于损失函数计算误差系列第一篇:https://blog.csdn.net/qq_37385726/article/details/81740386系列第二篇:https://blog.csdn.net/qq_37385726/article/details/81742247系列第三篇:https://blog.csdn....原创 2018-08-16 17:08:37 · 1179 阅读 · 0 评论 -
Pytorch之第一次构建神经网络(四)
本文为第一次构建神经网络系列第四篇探讨如何反向传播计算梯度系列第一篇:https://blog.csdn.net/qq_37385726/article/details/81740386系列第二篇:https://blog.csdn.net/qq_37385726/article/details/81742247系列第三篇:https://blog.csdn.net/qq_37...原创 2018-08-16 17:26:10 · 844 阅读 · 0 评论 -
Pytorch之构建神经网络细节须知
trainset = dsets.CIFAR10(root='./CIFAR10/net2/train',train=True,transform=transform1,download=DOWNLOAD) trainload = Data.DataLoader(trainset,batch_size=BATCH_SIZE,shuffle=True) ...原创 2018-08-19 13:25:52 · 381 阅读 · 0 评论 -
Pytorch之第一次构建神经网络(五)
本文为第一次构建神经网络系列第五篇探讨构建优化器来更新参数系列第一篇:https://blog.csdn.net/qq_37385726/article/details/81740386系列第二篇:https://blog.csdn.net/qq_37385726/article/details/81742247系列第三篇:https://blog.csdn.net/qq_37...原创 2018-08-16 21:00:10 · 475 阅读 · 0 评论 -
Pytorch之保存读取模型
目录转自这里pytorch保存数据pytorch读取数据pytorch保存数据pytorch保存数据的格式为.t7文件或者.pth文件,t7文件是沿用torch7中读取模型权重的方式。而pth文件是python中存储文件的常用格式。而在keras中则是使用.h5文件。# 保存模型示例代码print('===> Saving models...')state = ...转载 2018-08-22 14:47:26 · 16173 阅读 · 0 评论 -
Pytorch之下载数据集
如果你的torchvision还没有装好,可以参看https://blog.csdn.net/qq_37385726/article/details/81744485(应对于WIndows下Python3.6,cuda=none) 目录1.代码MNISTCIFAR效果 1.代码Pytorch中有很多常用的数据集模块,预先保存在了torchvisi...原创 2018-08-17 09:04:46 · 10794 阅读 · 1 评论 -
Numpy/Pytorch之数据类型与强制类型转换
目录1.数据类型简介NumpyPytorch2.Python的type()函数3.Numpy/Pytorch的dtype属性4.Numpy中的类型转换先聊聊我为什么会用到这个函数(不看跳过)astype()函数输出4.Pytorch中的类型转换Way1 : 变量直接调用类型Way2 : 变量调用pytorch中的type函数Way3 : 变量调用...原创 2018-08-17 11:47:19 · 51052 阅读 · 1 评论 -
Pytorch之浅入torchvision.transforms.ToTensor与ToPILImage
torchvision.transforms中定义了一系列数据转换形式,有PILImage,numpy,Tensor间相互转换,还能对数据进行处理。在torchvision.datasets下载数据的时候,作为一个参数传入,对下载的数据进行处理(关于数据集下载,具体可参见https://blog.csdn.net/qq_37385726/article/details/81771943)...原创 2018-08-18 17:33:08 · 42947 阅读 · 0 评论 -
Pytorch之parameters
目录1.预构建网络 网络结构2.net.parameters()逐列表项输出列表元素和index 1.预构建网络class Net(nn.Module): def __init__(self): super(Net, self).__init__() # 1 input image channel, 6 output chann...原创 2018-08-16 15:02:22 · 16486 阅读 · 3 评论 -
Pytorch之第一次构建神经网络(一)
本文为第一次构建神经网络系列第一篇探讨如何构建神经网络中关键的class Net系列第一篇:https://blog.csdn.net/qq_37385726/article/details/81740386系列第二篇:https://blog.csdn.net/qq_37385726/article/details/81742247系列第三篇:https://blog.csd...原创 2018-08-16 14:06:01 · 853 阅读 · 0 评论 -
Pytorch之浅入backward
目录代码输出 原地 ( in-place )操作都要加_ ,对于variable的grad属性,由于其是累加的,所以更新的时候需要清零,可以使用原地操作,例如x.grad.data.zero_()代码import torchfrom torch.autograd import Variablex = Variable(torch.ones(2,2),requir...原创 2018-08-15 15:53:17 · 4286 阅读 · 0 评论 -
Pytorch之Variable
目录1.简介代码1输出1代码2输出2代码3输出3代码4输出42.grad属性1.简介torch.autograd.Variable是Autograd的核心类,它封装了Tensor,并整合了反向传播的相关实现Variable和tensor的区别和联系Variable是篮子,而tensor是鸡蛋,鸡蛋应该放在篮子里才能方便拿走(定义variab...原创 2018-08-15 16:41:04 · 3963 阅读 · 0 评论 -
Pytorch之深入backward
目录解释 对于backward,我们一般都是一个tensor标量来调用的,那如果是一个variable.data不是标量呢,那还可以调用吗?可以,加上参数就行。参数决定的是variable.data每一元素的影响因子(权值)【看后面的解释就明白了】 torch.autograd.backward(variables, grad_variables=None, r...转载 2018-08-15 16:58:27 · 1038 阅读 · 0 评论 -
Pytorch之contiguous
目录contiguousis_contiguouscontiguous tensor变量调用contiguous()函数会使tensor变量在内存中的存储变得连续。contiguous():view只能用在contiguous的variable上。如果在view之前用了transpose, permute等,需要用contiguous()来返回一个contiguous co...转载 2018-08-18 17:52:36 · 2220 阅读 · 0 评论 -
Pytorch之深入torchvision.transforms.ToTensor与ToPILImage
目录torchvision.transforms.ToTensortorchvision.transforms.ToPILImagetorchvision.transforms.ToTensor对于一个图片img,调用ToTensor转化成张量的形式,发生的不是将图片的RGB三维信道矩阵变成tensor图片在内存中以bytes的形式存储,转化过程的步骤是:img.to...原创 2018-08-18 18:25:53 · 27672 阅读 · 5 评论 -
Pytoch之torchvision.transforms图像变换
目录transforms.CenterCrop(size)transforms.RandomCrop(size,padding=0)transforms.RandomHorizontalFliptransforms.RandomSizedCrop(size, interpolation=2)transforms.Pad(padding, fill=0) transfor...原创 2018-08-18 21:11:34 · 7177 阅读 · 4 评论 -
Pytorch/Numpy之squeeze
目录对于Pytorch而言对于Numpy而言代码输出对于Pytorch而言squeeze(torch.tensor,axis) 返回值与原tensor共享内存,修改返回值中元素值对原tensor也有影响未指定axis,将张量size()中所有为1的维度去除 指定axis,如果该axis为1则去除,反之保留原来的size不变对于Numpy而言squeeze(n...原创 2018-08-18 23:17:00 · 3449 阅读 · 0 评论 -
Pytorch之view及view_as
目录很重要的一点view函数与Pytorch0.4中新增的reshape的区别代码输出view_as代码输出 view()函数是在torch.Tensor.view()下的一个函数,可以有tensor调用,也可以有variable调用。其作用在于返回和原tensor数据个数相同,但size不同的tensor【Numpy中的size是元素个数,但是在P...原创 2018-08-16 11:36:11 · 32292 阅读 · 1 评论 -
Pytorch之卷积层
目录1.简介(torch.nn下的)2.简介(torch.nn.functional下的)1.简介(torch.nn下的)卷积层主要使用的有3类,用于处理不同维度的数据参数 Parameters:in_channels(int) – 输入信号的通道 out_channels(int) – 卷积产生的通道 kerner_size(int or tuple) - 卷...原创 2018-08-16 13:45:40 · 8226 阅读 · 2 评论 -
Pytorch之搭建神经网络的四种方法
目录第一种方法第二种方法第三种方法第四种方法完整代码 转载自这里利用pytorch来构建网络模型有很多种方法,以下简单列出其中的四种。假设构建一个网络模型如下:卷积层--》Relu层--》池化层--》全连接层--》Relu层--》全连接层首先导入几种方法用到的包:import torchimport torch.nn.functional a...转载 2018-08-16 13:56:27 · 29462 阅读 · 2 评论 -
pytorch 把MNIST数据集转换成图片和txt
目录1.下载Mnist 数据集2. 保存为图片和txt 1.下载Mnist 数据集import os # third-party libraryimport torchimport torch.nn as nnfrom torch.autograd import Variableimport torch.utils.data as Dataimport torc...原创 2018-11-25 16:06:58 · 1695 阅读 · 0 评论