![](https://img-blog.csdnimg.cn/1d85572eeb8e445ba4aa4909bdfc0b71.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
pytorch 环境搭建与代码笔记
文章平均质量分 72
pytorch学习笔记
ACxz
共同努力、进步、开冲
展开
-
Pytorch与tensorboard观察Loss变化
在使用pytorch框架训练时,如何利用tensorboard记录并查看loss等变量的变化原创 2022-09-14 14:58:35 · 825 阅读 · 0 评论 -
NeRF_pytorch学习
NeRF学习原创 2022-09-07 20:05:02 · 993 阅读 · 2 评论 -
ConvTranspose2d函数笔记
ConvTranspose2d笔记,参数解释,计算和使用原创 2022-09-02 16:04:33 · 424 阅读 · 1 评论 -
PyTorch实现多项式拟合
利用梯度下降的方法对原函数继续拟合import torchimport mathimport matplotlib.pyplot as pltclass Fitting_polynomial(torch.nn.Module): def __init__(self): super(Fitting_polynomial,self).__init__() self.a = torch.nn.Parameter(torch.randn(())) s原创 2022-04-27 18:08:35 · 5787 阅读 · 0 评论 -
基于Pytorch的Fashion mnist实战
import torchfrom torchvision import datasets, transformsimport timeimport numpy as npimport matplotlib.pyplot as plt from PIL import Image# Define a transform to normalize the datatransform = transforms.Compose([transforms.ToTensor(),原创 2022-04-26 20:04:52 · 4755 阅读 · 0 评论 -
PyTorch之torchvision.transforms实战
PyTorch之torchvision.transforms实战#Pyton Image Library PIL 一个python图片库from PIL import Imagefrom torchvision import transformsimport matplotlib.pyplot as plt%matplotlib inlineimg = Image.open(r"C:\Users\pandas\Pictures\QQ图片20211021234845.jpg")print(i原创 2021-12-25 19:34:34 · 5972 阅读 · 0 评论 -
pytorch卷积详解
卷积层卷积神经网络(convolutional neural network)是含有卷积层(convolutional layer)的神经网络。它有高和宽两个空间维度,常用来处理图像数据。下面我们将介绍简单形式的二维卷积层的工作原理。卷积计算在二维卷积层中,一个二维输入数组和一个二维核(kernel)数组通过互相关运算输出一个二维数组。 我们用一个具体例子来解释二维互相关运算的含义。如图5.1所示,输入是一个高和宽均为3的二维数组。我们将该数组的形状记为3×33×3或(3,3)。核数组的高和宽分别为2原创 2021-12-23 19:19:13 · 4956 阅读 · 0 评论 -
参数访问、初始化和共享
引言最初我们会以init模块来初始化模型的参数。现在我们将深入了解如何访问和初始化模型参数,以及如何在多个层之间共享同一份模型参数。我们先定义一个含单隐藏层的多层感知机。我们依然使用默认方式初始化它的参数,并做一次前向计算。与之前不同的是,在这里我们从nn中导入了init模块,它包含了多种模型初始化方法。import torchfrom torch import nnfrom torch.nn import initnet = nn.Sequential(nn.Linear(4, 3), nn原创 2021-12-22 15:16:15 · 1497 阅读 · 2 评论 -
基于Module类构建网络
文章目录构建网络方式:继承Module类来构造模型Module的子类Sequential类ModuleList类ModuleDict类构造复杂的模型小结构建网络方式:Sequential(方便,简单)Module(灵活)继承Module类来构造模型Module类是nn模块里提供的一个模型构造类,是所有神经网络模块的基类,我们可以继承它来定义我们想要的模型。下面继承Module类构造本节开头提到的多层感知机。这里定义的MLP类重载了Module类的__init__函数和forward函数。它们分别原创 2021-12-21 22:48:32 · 498 阅读 · 0 评论 -
pytorch-定义神经网络
文章目录神经网络定义网络损失函数反向传播更新神经网络参数:训练过程的经典三步走:神经网络神经网络可以通过 torch.nn 包来构建。现在对于自动梯度(autograd)有一些了解,神经网络是基于自动梯度 (autograd)来定义一些模型。一个 nn.Module 包括层和一个方法 forward(input) 它会返回输出(output)。一个基础的神经网络训练过程包括以下几点:1.定义一个包含可训练参数的神经网络2.迭代整个输入3.通过神经网络处理输入4.计算损失(loss)5.反原创 2021-12-05 17:56:04 · 647 阅读 · 0 评论 -
pytorch-backward()原理详细讲解
文章目录张量梯度和雅可比积测试关于非标量损失函数backward()函数使用例子计算y = 5x2y\ =\ 5x^2y = 5x2 每个整数(1,2,...,10)的导数稍复杂的多维度梯度计算张量梯度和雅可比积在很多情况下,我们有一个标量损失函数,我们需要计算一些参数的梯度。但是,有些情况下输出函数是任意张量。在这种情况下,PyTorch 允许您计算所谓的Jacobian 乘积,而不是实际的梯度。对于向量函数y⃗=f(x⃗)\vec{y}=f\left( \v原创 2021-12-05 17:31:42 · 877 阅读 · 0 评论 -
pytorch-微分
文章目录引言主要用到的包和类:一些小测试梯度梯度下降的实战例子-考虑最简单的一层神经网络张量梯度和雅可比积引言在训练神经网络时,最常用的算法是 反向传播。在该算法中,参数(模型权重)根据损失函数相对于给定参数的梯度进行调整。为了计算这些梯度,PyTorch 有一个名为 的内置微分引擎torch.autograd。它支持任何计算图的梯度自动计算。主要用到的包和类:autogradtorch.Tensortorch.Tensor 是包的核心类。如果将其属性 .requires_grad 设置为原创 2021-12-05 16:27:52 · 1156 阅读 · 0 评论 -
Pytorch 安装
查看NVIDIA驱动显卡驱动程序就是用来驱动显卡的程序,它是硬件所对应的软件。驱动程序即添加到操作系统中的一小块代码,其中包含有关硬件设备的信息。正常有显卡的电脑都是有驱动程序的,但是有的时候驱动可能版本比较低,支持的cuda版本也是比较低。查看信息第一步查看电脑显卡是啥;方法一:此电脑 -->高级系统设置–>显示适配器方法二(需要有显卡驱动):在右下角找到这个小图标打开,或者右键桌面找到控制面板下载了解情况后去英伟达官网上去找相对应的显卡驱动更新或者下载。官网:http原创 2021-12-02 10:53:19 · 1516 阅读 · 0 评论 -
pytorch-创建Tensors
Tensors(张量)类似于numpy中的ndarrays,且Tensors可以在GPU上进行计算。构造一个5x5的空矩阵import torchx = torch.empty(5, 5)xtensor([[1.4574e-43, 6.4460e-44, 1.7096e-43, 1.4153e-43, 1.5975e-43], [1.5554e-43, 1.6115e-43, 5.6052e-44, 7.4269e-44, 6.1657e-44], [4.484原创 2021-12-02 11:37:39 · 1843 阅读 · 0 评论