Torch
人工智能
小火箭丶
求实求真
展开
-
反卷积原理 + pytorch反卷积层参数output_padding
反卷积原理 + pytorch反卷积层参数output_padding_T-Jhon的博客-CSDN博客_pytorch 反卷积转载 2021-10-27 16:17:00 · 204 阅读 · 0 评论 -
Pytorch-数据保存载入
pytorch中保存模型相关的函数有3个:torch.save:利用python的pickle模块实现序列化并保存序列化后的objecttorch.load:利用pickle将保存的object反序列化torch.nn.Module.load_state_dict:通过反序列化得到的state_dict读取保存的训练参数有两种方法保存模型:1. torch.save(model, path) # 直接保存整个模型2. torch.save(model.state_dict(), pa原创 2021-10-09 10:30:08 · 466 阅读 · 0 评论 -
视频数据数据集处理与加载(Pytorch)
之前写了一篇没有使用任何深度学习框架来处理视频数据集的文章:视频数据集UCF101的处理与加载(未使用深度学习框架)上面的处理方法简单粗暴,但仍有很多可以优化的空间,这两天又学习了一下PyTorch对于数据集加载的支持:PyTorch入门学习(七):数据加载与处理之前说过要用PyTorch的方法重新实现一遍对于UCF101的处理,所以在这里做个记录。这篇文章里仅仅记录具体的实现方法,至于为什么这么做还是看前面转载的PyTorch入门学习(七):数据加载与处转载 2021-09-01 15:14:12 · 4416 阅读 · 0 评论 -
使用torchvision.datasets.Imagefolder将数据分为训练集和测试集
orig_set = torchvision.datasets.Imagefolder(...) # your datasetn = len(orig_set) # total number of examplesn_test = int(0.1 * n) # take ~10% for testtest_set = torch.utils.data.Subset(orig_set, range(n_test)) # take first 10%train_set = torch.util.原创 2021-09-01 14:38:52 · 1956 阅读 · 0 评论 -
Pytorch上下采样函数--interpolate用法
def interpolate(input, size=None, scale_factor=None, mode='nearest', align_corners=None):根据给定 size 或 scale_factor,上采样或下采样输入数据input.当前支持 temporal, spatial 和 volumetric 输入数据的上采样,其shape 分别为:3-D, 4-D 和 5-D.输入数据的形式为:mini-batch x channels x [optional...原创 2021-08-25 15:05:58 · 860 阅读 · 0 评论 -
Pytorch中nn.ModuleList和nn.Sequential的用法和区别
最近在定义一个多任务网络的时候对nn.ModuleList和nn.Sequential的用法产生了疑惑,这里让我们一起来探究一下二者的用法和区别。nn.ModuleList和nn.Sequencial的作用先来探究一下nn.ModuleList的作用,定义一个简单的只含有全连接的网络来看一下。当不使用ModuleList只用list来定义网络中的层的时候:import torchimport torch.nn as nnclass testNet(nn.Module): def ...转载 2021-08-25 14:49:34 · 463 阅读 · 0 评论 -
Pytorch-nn.sequential
前言:类似于keras中的序贯模型,当一个模型较简单的时候,我们可以使用torch.nn.Sequential类来实现简单的顺序连接模型。这个模型也是继承自Module类的,关于这个类,后面的文章会详细介绍。一、关于Sequential类的简介先来看一下它的定义吧,在之前,我们首先需要明确一个特别重要的观念,那就是——torch的核心是Module类,Module类在下面这个模块中:D:\ProgramData\Anaconda3\envs\pytorch1.1.0\Lib\site-pack转载 2021-08-25 14:36:53 · 302 阅读 · 0 评论 -
Pytorch-unsqueeze
unsqueeze作用是用于增加维度,操作是针对于tensor张量,增加一个维数为1的维度。unsqueeze的用法通过tensor.unsqueeze(dim)进行维度扩张。dim是维度,如果要扩张第一维就是tensor.unsqueeze(0)如果要在第二维扩张就是tensor.unsqueeze(1)最后一维就是tensor.unsqueeze(-1)unsqueeze_和unsqueeze实现一样的功能, 区别在于unsqueeze_是in_place操作,即unsquee.原创 2021-08-04 20:56:45 · 743 阅读 · 0 评论 -
pytorch:nn.Softmax()
https://blog.csdn.net/weixin_41391619/article/details/104823086原创 2021-07-27 23:06:16 · 185 阅读 · 0 评论 -
Pytorch-zip&enumerate
1 enumerate()函数enumerate()是python的内置函数enumerate在字典上是枚举、列举的意思对于一个可迭代的(iterable)/可遍历的对象(如列表、字符串),enumerate将其组成一个索引序列,利用它可以同时获得索引和值enumerate多用于在for循环中得到计数: for...in enumerate()1.2 enumerate()用法如果对一个列表,既要遍历索引又要遍历元素时,首先可以这样写:list = ["星期一", "星期二", "星期三",.原创 2021-07-27 22:11:09 · 319 阅读 · 0 评论 -
Pytorch-permute transpose view contiguous
1 先看看官方中英文doc: torch.Tensor.permute (Python method, in torch.Tensor)1.1 permute(dims)将tensor的维度换位。参数: - __dims__ (int ..*) - 换位顺序例:>>> x = torch.randn(2, 3, 5) >>> x.size() torch.Size([2, 3, 5]) >>> x.permute(2,原创 2021-07-27 21:51:14 · 134 阅读 · 0 评论 -
Torch-小技巧总结(持续更新)
1、模型结构可视化: summaryimport torchimport torch.nn as nnimport torch.nn.functional as Ffrom torchsummary import summaryclass Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(1, 10, kernel_size=5)原创 2021-07-26 14:21:22 · 321 阅读 · 0 评论 -
Pytorch-nn.Module类&nn.Module类详解
https://blog.csdn.net/qq_27825451/article/details/90550890https://blog.csdn.net/qq_27825451/article/details/90551513原创 2021-07-19 17:01:45 · 235 阅读 · 0 评论 -
Pytorch-handbook 基本知识-激活函数
sigmoid 函数在sigmoid函数中我们可以看到,其输出是在(0,1)这个开区间,它能够把输入的连续实值变换为0和1之间的输出,如果是非常大的负数,那么输出就是0;如果是非常大的正数输出就是1,起到了抑制的作用。但是sigmod由于需要进行指数运算(这个对于计算机来说是比较慢,相比relu),再加上函数输出不是以0为中心的(这样会使权重更新效率降低),当输入稍微远离了坐标原点,函数的梯度就变得很小了(几乎为零)。在神经网络反向传播的过程中不利于权重的优化,这个问题叫做梯度饱和,也可以叫转载 2021-06-23 11:14:12 · 207 阅读 · 0 评论 -
Pytorch-handbook 基本知识-张量
1、Tensor(张量)张量的英文是Tensor,它是PyTorch里面基础的运算单位,与Numpy的ndarray相同都表示的是一个多维的矩阵。 与ndarray的最大区别就是,PyTorch的Tensor可以在 GPU 上运行,而 numpy 的 ndarray 只能在 CPU 上运行,在GPU上运行大大加快了运算速度。torch.rand(x,y)x = torch.rand(2, 3)--------------------------------tensor([[0.6904..原创 2021-06-23 10:44:10 · 251 阅读 · 0 评论