![](https://img-blog.csdnimg.cn/20200730115530946.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
pytorch
文章平均质量分 65
从入门开始学习,记录关键的知识点
小Aer
站在巨人的肩膀上仰望星空
展开
-
Pytorch 基础-张量基本操作
Pytorch 中,张量的操作分为结构操作和数学运算,其理解就如字面意思。结构操作就是改变张量本身的结构,数学运算就是对张量的元素值完成数学运算。原创 2022-06-01 19:08:06 · 423 阅读 · 0 评论 -
python3 list, np.array, torch.tensor相互转换
ndarray = np.array(list) # list 转 numpy数组list = ndarray.tolist() # numpy 转 listtensor=torch.Tensor(list) # list 转 torch.Tensorlist = tensor.numpy().tolist() # torch.Tensor 转 list 先转numpy,后转listndarray = tensor.cpu().numpy() # torch.Tensor 转 numpy原创 2022-03-03 16:37:34 · 1277 阅读 · 2 评论 -
对抗学习DCGAN网络
对抗神经网络GAN和DCGAN原创 2022-03-22 21:18:17 · 946 阅读 · 6 评论 -
使用pytorch进行深度学习
深度学习表现为使用更巧妙的方法将线性函数和非线性函数进行组合。非线性函数的引入使得训练出来的模型更加强大。在本节中,我们将学 习这些核心组件,建立目标函数,并理解模型是如何构建的。原创 2022-03-22 16:02:07 · 2462 阅读 · 0 评论 -
深入理解model.eval()与torch.no_grad()
model.eval()使用model.eval()切换到测试模式,不会更新模型的k(权重),b(偏置)参数通知dropout层和batchnorm层在train和val中间进行切换:在train模式,dropout层会按照设定的参数p设置保留激活单元的概率(保留概率=p,比如keep_prob=0.8),batchnorm层会继续计算数据的mean和var并进行更新在val模式下,dropout层会让所有的激活单元都通过,而batchnorm层会停止计算和更新mean和var,直接使用在训练阶转载 2022-03-05 15:34:18 · 726 阅读 · 0 评论 -
详解Focal Loss以及PyTorch代码
原理从17年被RetinaNet提出,Focal Loss 一直备受好评。由于其着重关注分类较差的样本的思想,Focal loss以简单的形式,一定程度解决了样本的难例挖掘,样本不均衡的问题。普通的Cross EntropyFocal Loss代码import torchimport torch.nn as nnimport torch.nn.functional as Ffrom torch.autograd import Variableclass FocalLoss(nn.Modu转载 2022-03-04 15:43:37 · 3838 阅读 · 0 评论 -
风格转换网络(pytorch官方教程)
文章目录1.简介2.导入所需要的包3.加载图片5.计算损失5.1内容损失5.2风格损失6.导入模型7.梯度下降1.简介本教程主要讲解如何实现由 Leon A. Gatys,Alexander S. Ecker和Matthias Bethge提出的Neural-Style 算法。Neural-Style 或者叫 Neural-Transfer,可以让你使用一种新的风格将指定的图片进行重构。 这个算法使用三张图片,一张输入图片,一张内容图片和一张风格图片,并将输入的图片变得与内容图片相似,且拥有风格图片的优原创 2022-03-02 15:30:02 · 743 阅读 · 0 评论 -
空间变换器网络
文章目录1.加载数据2.什么是空间变换器网络?3.训练模型4.可视化 STN 结果1.加载数据在这篇文章中,我们尝试了经典的 MNIST 数据集。使用标准卷积网络增强空间变换器网络。from six.moves import urllibopener = urllib.request.build_opener()opener.addheaders = [('User-agent', 'Mozilla/5.0')]urllib.request.install_opener(opener)dev原创 2022-02-21 15:53:20 · 558 阅读 · 0 评论 -
微调 Torchvision 模型(pytorch官方教程)
文章目录前言1.导入相关包并打印版本号2.输入3.辅助函数3.1 模型训练和验证代码3.2 设置模型参数的`.requires_grad`属性4.初始化和重塑网络4.1 Resnet4.2 Alexnet4.3 VGG4.4 Squeezenet4.5 Densenet4.6 Inception v34.7 重塑代码5.加载数据6.创建优化器7.运行训练和验证8.对比从头开始模型9.总结展望前言在本教程中,我们将深入探讨如何对 torchvision 模型进行微调和特征提取,所有这些模型都已经预先在10原创 2022-02-14 18:50:25 · 1320 阅读 · 0 评论 -
微调基于 torchvision 0.3的目标检测模型(pytorch官方教程)
在本教程中,我们将微调在 Penn-Fudan 数据库中对行人检测和分割的已预先训练的 Mask R-CNN模型。它包含170个图像和345个行人实例,我们 将用它来说明如何在 torchvision 中使用新功能,以便在自定义数据集上训练实例分割模型。文章目录1.定义数据集2.为 PennFudan 编写自定义数据集2.1 下载数据集2.2 为数据集编写类3.定义模型3.1 PennFudan 数据集的实例分割模型4.整合4.1 为数据扩充/转换编写辅助函数:4.2 编写执行训练和验证的主要功能5.原创 2022-02-14 14:13:55 · 1322 阅读 · 0 评论 -
pytorch之迁移学习
文章目录1.导入相关的包2.加载数据3.可视化部分图像数据4.训练模型5.可视化模型的预测结果6.场景1:微调ConvNet7.场景2:ConvNet作为固定特征提取器实际中,基本没有人会从零开始(随机初始化)训练一个完整的卷积网络,因为相对于网络,很难得到一个足够大的数据集[网络很深, 需要足够大数据集]。通常的做法是在一个很大的数据集上进行预训练得到卷积网络ConvNet, 然后将这个ConvNet的参数作为目标任务的初始化参数或者固定这些参数。转移学习的两个主要场景:微调Convnet:使用预原创 2022-01-26 12:33:41 · 4133 阅读 · 0 评论 -
pytorch学习-构建神经网络
pytorch学习-构建神经网络原创 2021-08-17 17:20:53 · 950 阅读 · 0 评论 -
pytorch学习-Transforms
pytorch学习-Transforms原创 2021-08-17 16:32:09 · 472 阅读 · 0 评论 -
pytorch学习-datasets & dataloaders
pytorch学习-datasets & dataloaders原创 2021-08-05 18:46:50 · 328 阅读 · 0 评论 -
pytorch学习-tensors
pytorch学习-tensors原创 2021-08-03 18:59:44 · 384 阅读 · 0 评论 -
解决“RuntimeError: CUDA out of memory.”
解决“RuntimeError: CUDA out of memory.”原创 2021-06-24 21:36:27 · 974 阅读 · 0 评论 -
pytorch中tensor * tensor和tensor.mul(tensor)方法
pytorch中tensor * tensor和tensor.mul(tensor)方法原创 2021-05-18 21:33:24 · 2175 阅读 · 0 评论 -
pytorch张量和numpy数组的转换
pytorch张量和numpy数组的转换原创 2021-05-18 16:41:24 · 8658 阅读 · 2 评论 -
pytorch的tensor.add_方法
pytorch的tensor.add_方法原创 2021-05-18 16:34:26 · 5624 阅读 · 0 评论 -
pytorch中的tensor.matmul(tensor.T)和tensor @ tensor.T方法
pytorch中的tensor.matmul(tensor.T)和tensor @ tensor.T方法原创 2021-05-18 16:28:57 · 2970 阅读 · 0 评论 -
TRAINING A CLASSIFIER训练分类器(pytorch官网60分钟闪电战第四节)
Training an image classifier训练图像分类器本节没有写在GPU和多个GPU上训练的代码,主要写了训练图像分类器,分为5个步骤文章目录一、Loading and normalizing CIFAR10 加载并标准化CIFAR10下载训练集和测试集二、Define a Convolutional Neural Network 定义卷积神经网络三、Define a Loss function and optimizer 定义损失函数和优化器四、Train the network训原创 2020-08-08 17:38:13 · 298 阅读 · 0 评论 -
NEURAL NETWORKS神经网络(pytorch官网60分钟闪电战第三节)
import torchimport torch.nn as nnimport torch.nn.functional as fimport torch.optim as optim文章目录一、Define the network定义网络二、Loss Function损失函数三、Backprop 反向传播四、Update the weights 更新权重一、Define the network定义网络class Net(nn.Module): def __init__(self):原创 2020-08-08 17:24:10 · 177 阅读 · 0 评论 -
AUTOGRAD: 自动分化(pytorch官网60分钟闪电战第二节)
import torch文章目录一、Tensor二、Gradients一、Tensor该节使用了跟踪张量,当对x进行设置requires_grad=True,那么后续对x的操作都要转换为含x的公式,这样就体现了跟踪这一含义。# 创建一个张量并设置requires_grad=True为跟踪张量x = torch.ones(2, 2, requires_grad=True)print(x)# 用户自己创建的没有grad_fnprint(x.grad_fn)# 进行张量运算y = x + 2原创 2020-08-08 17:10:42 · 105 阅读 · 0 评论 -
WHAT IS PYTORCH?(pytorch官网60分钟闪电战第一节)
import torchimport numpy as np文章目录一、张量Tensors二、运作方式Operations三、NumPy Bridge 将Torch张量转换为NumPy数组,反之亦然四、CUDA张量一、张量Tensors# 构造一个未初始化的5x3矩阵x = torch.empty(5, 3)# 构造一个随机初始化的矩阵x = torch.rand(5, 3)# 构造一个填充零且dtype long的矩阵 构造全1和全0会输出dtype=torch.float64x =原创 2020-08-08 16:54:19 · 164 阅读 · 0 评论 -
The “freeze_support()“ line can be omitted if the program is not going to be frozen to produ
这是在pytorch官网60分钟学习时遇到的一个问题,训练图像分类器中,一开始要下载训练集和测试集,其中下载代码如下trainset = torchvision.datasets.CIFAR10(root='./data', train=True, download=True, transform=transform)testset = torchvision.datasets.CIFAR10(root='./data', train=False, download=True, transform=tr原创 2020-07-31 11:26:39 · 1065 阅读 · 0 评论 -
torch.mul() 和 torch.mm() 的区别
torch.mul(a, b) 是矩阵a和b对应位相乘,a和b的维度必须相等,比如a的维度是(1, 2),b的维度是(1, 2),返回的仍是(1, 2)的矩阵,和a*b效果相同torch.mm(a, b) 是矩阵a和b矩阵相乘,比如a的维度是(1, 2),b的维度是(2, 3),返回的就是(1, 3)的矩阵import torcha = torch.tensor([[1,1], [2,2]])b = torch.tensor([[1,1],原创 2020-07-30 11:52:24 · 549 阅读 · 0 评论