![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
PyTorch
文章平均质量分 62
Codefmeister
Nothing to say.
展开
-
Affinity Layer(仿射变换层), Full-connected Layer.
Affinity Layer 仿射变换层DefinitionAffinity layer,即Full-connected layer(仿射层或全连通层)是一层人工神经网络,其中所有包含的节点连接到后续层的所有节点。仿射层通常用于卷积神经网络和递归神经网络。受限玻尔兹曼机是仿射层或全连接层的一个例子。对于每一个到仿射(全连接)层的连接,节点的输入是前一层输出的线性组合,带有附加的偏置。然后通过激活函数传递输入来计算节点的输出。数学上,这表示为:y=f(Wx+b)y=f(W x+b)y=f(Wx+b原创 2021-04-10 10:04:57 · 3482 阅读 · 0 评论 -
设置随机种子之后,网络训练结果仍然不同的解决方法(针对随机采样的数据集)torch设置随机种子,num_worker对数据采样的影响。
网络训练结果无法复现设置随机种子应该为torch, numpy,以及Python设置随机种子,并提高torch卷积精度。def set_seed(seed): random.seed(seed) np.random.seed(seed) os.environ['PYTHONHASHSEED'] = str(seed) torch.manual_seed(seed) torch.cuda.manual_seed(seed) torch.cuda.manua原创 2021-03-18 11:10:28 · 8374 阅读 · 6 评论 -
FCGF论文阅读笔记
FCGF论文阅读笔记0. Abstract从三维点云或者扫描帧中提取出几何特征是许多任务例如配准,场景重建等的第一步。现有的领先的方法都是将low-level的特征作为输入,或者在有限的感受野上提取得到基于patch的特征。本文提出的是一个全卷积几何特征提取网络,名为fully-convolutional geometric features。 通过一个3D的全卷积网络的一次pass,即可得到几何特征。 同时提出了一个新的度量学习的loss函数,可以显著的提高网络的性能。 FCGF的几何特征十分紧凑,可原创 2021-01-14 22:19:07 · 2564 阅读 · 0 评论 -
PointConv论文阅读笔记
PointConv论文阅读笔记Abstract本文发表于CVPR。 其主要内容正如标题,是提出了一个对点云进行卷积的Module,称为PointConv。由于点云的无序性和不规则性,因此应用卷积比较困难。其主要的思路是,将卷积核当做是一个由权值函数和密度函数组成的三维点的局部坐标的非线性函数。通过MLP学习权重函数,然后通过核密度估计得到密度函数。还有一个主要的贡献在于,使用了一种高效计算的方法,转换了公式的计算分时,使得PointConv的卷积操作变得memory efficient,从而加深网络原创 2021-01-14 22:14:24 · 526 阅读 · 0 评论 -
torch中Dataset的构造与解读
torch中Dataset的构造与解读Dataset的构造要自定义自己的数据集,首先需要继承Dataset(torch.utils.data.Dataset)类.继承Dataset类之后,必须重写三个方法:__init__(), __getitem__(), __len__()class ModelNet40(Dataset): def __init__(self, xxx): ... def __getitem__(self, item):原创 2021-01-05 15:49:10 · 8060 阅读 · 0 评论 -
torch.nn.parameter.Parameter分析
torch.nn.parameter.Parameter作用a kind of Tensor that is to be considered a module parameter.Parameter是一种可以作为模型参数的Tensor.Parameters are Tensor subclasses, that have a very special property when used with Module S ----when they’re assigned as Module at原创 2020-12-26 15:30:35 · 1619 阅读 · 1 评论 -
torch.stack作用分析
torch.stack作用分析语法torch.stack(tensors, dim=0, *, out=None) --> Tensor作用Concatenates a sequence of tensors along a new dimension.All tensor need to be of the same size将一个序列的tensor在新的一维上concatenate起来,所有tensor的shape需要相同。Parameterstensors(seque原创 2020-12-26 15:29:36 · 164 阅读 · 0 评论 -
一维卷积与二维卷积:Conv1d与Conv2d详解
Conv1d与Conv2d本文分为几个部分来详解Conv2d与Conv1d。主要侧重于Conv2d前言本文记于2020年12月15日,起因是DGCNN中部分卷积使用了二维卷积,部分卷积使用了一维卷积。加之之前对Conv2d与Conv1d属于一种迷迷糊糊的状态,趁着这个机会弄清楚。Conv2d原理(二维卷积层)二维互相关运算互相关运算与卷积运算虽然卷积层得名于卷积(convolution)运算,但所有框架在实现卷积层的底层,都采用的是互相关运算。实际上,卷积运算与互相关运算类似,为了得到卷积运算原创 2020-12-15 20:15:15 · 29080 阅读 · 2 评论 -
AdaptiveMaxPool的作用
AdaptiveMaxPoolAdaptiveMaxPool是PyTorch中提供的自适应池化层。其主要特殊的地方在于:无论输入Input的size是多少,输出的size总为指定的size。AdaptiveMaxPool1d()m = nn.AdaptiveMaxPool1d(3)input = torch.randn(4,3,7)output = m(input) # output的size为(4,3,3)AdaptiveMaxPool2d()m = nn.AdaptiveMaxP原创 2020-12-14 16:04:01 · 5334 阅读 · 0 评论 -
LeakyReLU函数解析
LeakyReLU语法CLASS torch.nn.LeakyReLU(negative_slope: float = 0.01, inplace: bool = False)作用Element-wise对于每个x,应用函数如图:函数图像原创 2020-12-14 15:23:56 · 12657 阅读 · 6 评论 -
为什么需要Tensor.contiguous()? PyTorch中Tensor.contiguous()作用分析
为什么需要Tensor.contiguous()Tensor.contiguous()作用Returns a contiguous in memory tensor containing the same data as self tensor. If self tensor is already in the specified memory format, this function returns the self tensor.作用在官方文档里,描述的看似清晰但又模棱两可。例如x是一个Te原创 2020-12-14 11:01:45 · 4792 阅读 · 2 评论 -
PyTorch搜索Tensor指定维度的前K大个(K小个)元素--------(torch.topk)命令参数详解及举例
torch.topk语法torch.topk(input, k, dim=None, largest=True, sorted=True, *, out = None)作用返回输入tensorinput中,在给定的维度dim上k个最大的元素。如果dim没有给定,那么选择输入input的最后一维。如果largest = False,那么返回k个最小的元素。返回一个namedtuple类型的元组(values, indices),其中indices是指元素在原数组中的索引。sorted =原创 2020-12-13 21:36:52 · 6144 阅读 · 0 评论 -
Pytorch中model.eval()的作用分析
model.eval()model.eval() 作用等同于 self.train(False)简而言之,就是评估模式。而非训练模式。在评估模式下,batchNorm层,dropout层等用于优化训练而添加的网络层会被关闭,从而使得评估时不会发生偏移。总结在对模型进行评估时,应该配合使用with torch.no_grad() 与 model.eval(): loop: model.train() # 切换至训练模式 train…… m原创 2020-11-14 18:06:17 · 32869 阅读 · 1 评论 -
np.unique()官方文档分析以及举例
np.unique()官方文档分析以及举例1.1 官方文档及解读numpy.unique语法:numpy.unique(ar, return_index=False, return_inverse=False, return_counts=False, axis=None)作用:找到array中不重复(独一无二)的元素返回值:默认返回不重复元素的sorted排好序的从小到大的数组。可选的返回值有:输入数组提供不重复值(unique)元素的索引下标(如果有多个返回第一个)利用unique数组原创 2020-11-14 16:45:10 · 1757 阅读 · 0 评论 -
PyTorch学习笔记:torch.optim---Optimizer以及lr_scheduler
本文参考lr_scheduler介绍 以及PyTorch optim文档1 概述1.1 PyTorch文档:torch.optim解读下图是optim的文档TORCH.OPTIMtorch.optim is a package implementing various optimization algorithms. Most commonly used methods are already supported, and the interface is general enoug.原创 2020-11-14 09:35:11 · 4379 阅读 · 0 评论