pytorch
yrwang_xd
详情参见个人主页:https://yrwangxd.github.io/
展开
-
pytorch系列文档之Non-linear activations详解(ReLU、Sigmoid、Tanh)
ReLUtorch.nn.ReLU(inplace=False)参数inplace –(可以选择性地原地操作) can optionally do the operation in-place. Default: Falseshape:示例 >>> m = nn.ReLU() >>> input = torch.randn(2) >>> output = m(input)An implementation of CRe原创 2020-06-05 11:50:29 · 1246 阅读 · 0 评论 -
pytorch系列文档之Pooling layers详解(MaxPool1d、MaxPool2d、MaxPool3d)
MaxPool1dtorch.nn.MaxPool1d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)输入size为(N,C,L),在L维进行池化参数:kernel_size – 池化窗口大小stride – 步长. Default value is kernel_sizepadding – padding的值,默认就是不paddingdilation – 控制扩原创 2020-06-05 11:16:17 · 11600 阅读 · 1 评论 -
pytorch系列文档之API:Containers中的ModuleDict
将子模块放到一个字典里torch.nn.ModuleDict(modules=None)ModuleDict 可以像regular Python dictionary一样进行索引ModuleDict 是一个有序的字典.Note that update() with other unordered mapping types (e.g., Python’s plain dict) does not preserve the order of the merged mapping.参数:modul原创 2020-06-04 19:20:36 · 706 阅读 · 0 评论 -
pytorch系列文档之API:Containers中的ModuleList
一个包含子模块的listModuleList 可以像 Python list一样被索引torch.nn.ModuleList(modules=None)参数:modules (iterable, optional) – an iterable of modules to add示例:class MyModule(nn.Module): def __init__(self): super(MyModule, self).__init__() self.l原创 2020-06-04 18:00:02 · 170 阅读 · 0 评论 -
pytorch系列文档之API:Containers中的Sequential
将模型各个层整合成一个序列torch.nn.Sequential(*args)示例# Example of using Sequentialmodel = nn.Sequential( nn.Conv2d(1,20,5), nn.ReLU(), nn.Conv2d(20,64,5), nn.ReLU() )# Example of using Sequential with OrderedDict原创 2020-06-04 17:45:47 · 120 阅读 · 0 评论 -
pytorch系列文档之Normalization layers详解(BatchNorm1d、BatchNorm2d、BatchNorm3d)
BatchNorm1dtorch.nn.BatchNorm1d(num_features, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True)使用Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift方法,对2D或者 3D 输入 (a mini-batch of 1D inputs with opt原创 2020-06-04 17:36:51 · 2196 阅读 · 0 评论 -
pytorch系列文档之API:torch.optim.lr_scheduler详解
常用的学习率衰减方法1· torch.optim.lr_scheduler.LambdaLR()torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1)参数:optimizer (Optimizer) – optimizer.lr_lambda (function or list) – A function which computes a multiplicative factor given an int原创 2020-05-30 20:25:43 · 1098 阅读 · 0 评论 -
pytorch系列文档之How to adjust learning rate(调整学习率)
torch.optim.lr_scheduler提供了几种根据epoch调整学习率的方法。torch.optim.lr_scheduler.ReduceLROnPlateau使得可以根据 validation的值动态的减小学习率的值。减小学习率也就是scheduler.step()应该在参数更新之后注意:在PyTorch 1.1.0版本以前,scheduler.step()应该在参数更新之前。那么在1.1.0版本之后,如果还是在参数更新之前减小了学习率就使得,学习率的初始值将被跳过。示例:>原创 2020-05-30 17:08:53 · 1093 阅读 · 0 评论 -
pytorch系列文档之How to use an optimizer(用optimizer更新模型参数)
torch.optim是实现各种优化算法的包。已经支持最常用的方法,并且接口足够通用,因此将来也可以轻松集成更复杂的方法。原创 2020-05-30 16:45:05 · 1233 阅读 · 0 评论 -
pytorch系列文档之API:torch:Creation Ops详解
torch.tensor(data, dtype=None, device=None, requires_grad=False, pin_memory=False) → Tensor#注意这个经常是复制data。如果要避免复制,并且,如果data是一个tensor,使用torch.Tensor.requires_grad_()或者torch.Tensor.detach(). 如果data是NumPy ndarray 用torch.as_tensor()#注意当 data 是 tensor原创 2020-05-21 17:23:40 · 622 阅读 · 0 评论 -
pytorch常用数据类型所占字节数对照表
原创 2020-05-21 13:21:08 · 1267 阅读 · 0 评论 -
pytorch系列文档之API:torch:Tensors详解
torch.is_tensor(obj)#是pytorch tensor时返回truetorch.is_storage(obj)#是pytorch 存储对象时返回truetorch.is_complex(input) -> (bool)#是复杂数据类型时返回true,例如,torch.complex64, and torch.complex128torch.is_floating_point(input) -> (bool)#是否浮点数数据类型,torch.float64, torch.f原创 2020-05-14 21:14:42 · 529 阅读 · 0 评论 -
RuntimeError: Trying to backward through the graph a second time, but the buffers have already been
loss.backward(retain_graph=True)#retain_graph设置为True原创 2020-05-14 12:44:31 · 966 阅读 · 0 评论 -
torch与torchvision版本不匹配问题解决
安装指定版本的torchvision时会自动安装需要的torch。(Ubuntu下)原创 2020-05-05 18:42:23 · 9286 阅读 · 0 评论 -
RuntimeError: No such operator torchvision::nms问题解决
作者今天在跑之前写过的一个算法时遇到了这个问题。torch和torchvision版本和之前用的时侯没有变化,torch==1.4.0+cu100 torchvision==0.5.0+cu100。并且 import torch torch.ops.torchvision.nms输出了RuntimeError: No such operator torchvision::nms问题的...原创 2020-05-05 18:28:40 · 12051 阅读 · 12 评论