![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
PyTorch
文章平均质量分 51
极客Array
这个作者很懒,什么都没留下…
展开
-
Pytorch AutoEncoder 自编码 全部源代码复现
import torchimport torch.nn as nnimport torch.utils.data as Dataimport torchvisionimport matplotlib.pyplot as pltfrom mpl_toolkits.mplot3d import Axes3Dfrom matplotlib import cmfrom torch.autog...原创 2018-11-20 17:51:55 · 4229 阅读 · 3 评论 -
Pytorch Loss funtion介绍
Loss functions基本用法:criterion = LossCriterion() #构造函数有自己的参数loss = criterion(x, y) #调用标准时也有参数计算出来的结果已经对mini-batch取了平均。class torch.nn.L1Loss(size_average=True)[source]创建一个衡量输入x(模型预测输出)和目标y之间差的绝对值的...原创 2018-11-22 14:50:53 · 2074 阅读 · 0 评论 -
Pytorch - Variable_Tensor_Numpy_Cuda 之间的转换
Pytroch 涉及到 Variable,Tensor 和 Numpy 间的转换比较多,还会涉及到 cuda 到 cpu的转换.Variable 转 Numpy import torch from torch.autograd import Variablevar = Variable(torch.FloatTensor(2,3))# var = tensor(1.00000e-0...原创 2018-11-22 17:30:14 · 1587 阅读 · 0 评论 -
问题解决:Pytorch :Trying to backward through the graph a second time, but the buffers。。
最近在学习Pytorch,刚用Pytorch重写了之前用Tensorlfow写的论文代码。首次运行就碰到了一个bug:Pytorch - RuntimeError: Trying to backward through the graph a second time, but the buffers have already been freed. Specify retain_graph=T...原创 2018-11-23 09:48:37 · 16407 阅读 · 7 评论 -
PyTorch 生成随机数Tensor(标准分布、标准正态、离散正态……)
在使用PyTorch做实验时经常会用到生成随机数Tensor的方法,比如:torch.rand()torch.randn()torch.normal()torch.linespace()均匀分布*torch.rand(sizes, out=None) → Tensor返回一个张量,包含了从区间[0, 1]的均匀分布中抽取的一组随机数。张量的形状由参数sizes定义。参数:size...原创 2018-11-23 12:48:44 · 1301 阅读 · 0 评论 -
Pytorch MNIST数据集标准化为什么是transforms.Normalize((0.1307,), (0.3081,))
Pytorch已经提供了MNIST数据集,只要调用datasets.MNIST()下载即可,这里要注意的是标准化(Normalization):transforms.Normalize((0.1307,), (0.3081,))标准化(Normalization)和基于决策树的机器学习模型,如RF、xgboost等不同的是,神经网络特别钟爱经过标准化处理后的数据。标准化处理指的是,data...原创 2018-12-13 14:06:20 · 13218 阅读 · 10 评论 -
Pytorch softmax和log_softmax & CrossEntropyLoss() 与 NLLLoss()
1、softmax函数 Softmax(x) 也是一个 non-linearity, 但它的特殊之处在于它通常是网络中一次操作. 这是因为它接受了一个实数向量并返回一个概率分布.其定义如下. 定义 x 是一个实数的向量(正数或负数都无所谓, 没有限制). 然后, 第i个 Softmax(x) 的组成是exp(xi)∑jexp(xj)输出是一个概率分布: 每个元素都是非负的, 并且所有元素的总...原创 2018-12-14 13:21:29 · 2414 阅读 · 2 评论