![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 70
Codefmeister
Nothing to say.
展开
-
Affinity Matrix(关联矩阵,相似度矩阵),Cosine Similarity, Jaccard similarity
Affinity Matrixreference: DeepAI, WikipediaWhat is an Affinity Matrix?Affinity Matrix, 也叫做 Similarity Matrix。即关联矩阵,或称为相似度矩阵,是一项重要的统计学技术,是一种基本的统计技术,用于组织一组数据点之间的彼此相似性。相似度(similarity)类似于距离(distance),但它不满足度量性质,两个相同的点的similarity scores为1,而在metric下将为0。相似度量原创 2021-04-10 16:17:07 · 13085 阅读 · 2 评论 -
Affinity Layer(仿射变换层), Full-connected Layer.
Affinity Layer 仿射变换层DefinitionAffinity layer,即Full-connected layer(仿射层或全连通层)是一层人工神经网络,其中所有包含的节点连接到后续层的所有节点。仿射层通常用于卷积神经网络和递归神经网络。受限玻尔兹曼机是仿射层或全连接层的一个例子。对于每一个到仿射(全连接)层的连接,节点的输入是前一层输出的线性组合,带有附加的偏置。然后通过激活函数传递输入来计算节点的输出。数学上,这表示为:y=f(Wx+b)y=f(W x+b)y=f(Wx+b原创 2021-04-10 10:04:57 · 3482 阅读 · 0 评论 -
设置随机种子之后,网络训练结果仍然不同的解决方法(针对随机采样的数据集)torch设置随机种子,num_worker对数据采样的影响。
网络训练结果无法复现设置随机种子应该为torch, numpy,以及Python设置随机种子,并提高torch卷积精度。def set_seed(seed): random.seed(seed) np.random.seed(seed) os.environ['PYTHONHASHSEED'] = str(seed) torch.manual_seed(seed) torch.cuda.manual_seed(seed) torch.cuda.manua原创 2021-03-18 11:10:28 · 8374 阅读 · 6 评论 -
Learning Multiview 3D point Cloud Registration论文阅读笔记
Learning multiview 3D point cloud registrationAbstract提出了一种全新的,端到端的,可学习的多视角三维点云配准算法。 多视角配准往往需要两个阶段:第一个阶段进行初始化配准,给定点云各帧之间两两的初始化刚体变换关系;第二个阶段在全局意义上进行不断精细化处理。前者往往由于点云之间的低重叠率,对称性,或者重复的场景片段而导致配准精度较差。因此,紧随其后的全局优化(Global Refinement)的目标就是在多个点云帧中建立一种循环一致性(cyclic c原创 2021-01-16 11:33:20 · 1468 阅读 · 1 评论 -
FCGF论文阅读笔记
FCGF论文阅读笔记0. Abstract从三维点云或者扫描帧中提取出几何特征是许多任务例如配准,场景重建等的第一步。现有的领先的方法都是将low-level的特征作为输入,或者在有限的感受野上提取得到基于patch的特征。本文提出的是一个全卷积几何特征提取网络,名为fully-convolutional geometric features。 通过一个3D的全卷积网络的一次pass,即可得到几何特征。 同时提出了一个新的度量学习的loss函数,可以显著的提高网络的性能。 FCGF的几何特征十分紧凑,可原创 2021-01-14 22:19:07 · 2564 阅读 · 0 评论 -
PointConv论文阅读笔记
PointConv论文阅读笔记Abstract本文发表于CVPR。 其主要内容正如标题,是提出了一个对点云进行卷积的Module,称为PointConv。由于点云的无序性和不规则性,因此应用卷积比较困难。其主要的思路是,将卷积核当做是一个由权值函数和密度函数组成的三维点的局部坐标的非线性函数。通过MLP学习权重函数,然后通过核密度估计得到密度函数。还有一个主要的贡献在于,使用了一种高效计算的方法,转换了公式的计算分时,使得PointConv的卷积操作变得memory efficient,从而加深网络原创 2021-01-14 22:14:24 · 526 阅读 · 0 评论 -
torch中Dataset的构造与解读
torch中Dataset的构造与解读Dataset的构造要自定义自己的数据集,首先需要继承Dataset(torch.utils.data.Dataset)类.继承Dataset类之后,必须重写三个方法:__init__(), __getitem__(), __len__()class ModelNet40(Dataset): def __init__(self, xxx): ... def __getitem__(self, item):原创 2021-01-05 15:49:10 · 8060 阅读 · 0 评论 -
DCP(Deep Closest Point)论文阅读笔记以及详析
DCP论文阅读笔记前言本文中图片仓库位于github,所以如果阅读的时候发现图片加载困难。建议挂个梯子。作者博客:https://codefmeister.github.io/论文Deep Closest Point: Learning Representations for Point Cloud RegistrationAuthor: Wang, Yue; Solomon, JustinMain Attribution基于ICP迭代最近点算法,提出基于深度学习的DCP算法。解决了IC原创 2020-12-26 15:24:26 · 6946 阅读 · 18 评论 -
The Illustrated Transformer (Transformer可视化解读自译笔记)
图解TransformerReference: The Illustrated Transformer本文自译用于加深理解与印象。关于注意力机制,可以参考先前的Seq2Seq Model with AttentionTransformer是论文Attention is All You Need提出的。在这篇文章中,我们将尝试把事情弄得简单一点,逐个介绍概念,以便更好理解。A High-Level Look我们首先把模型看作是一个黑箱。在机器翻译领域的应用中,输入一种语言的一个句子,会输出另外原创 2020-12-19 15:59:43 · 1090 阅读 · 1 评论 -
Seq2Seq Model With Attention(带有注意力机制的序列到序列模型可视化解读)
Mechanics of Seq2Seq Models With AttentionReference: Visualizing A Neural Machine Translation Model (Mechanics of Seq2seq Models With Attention)前言Sequence-to-sequence模型在深度学习领域取得了很多成就。这文章真的牛逼。有视频不翻译了。...原创 2020-12-19 15:42:26 · 484 阅读 · 1 评论 -
NLP:语言模型与n元语法
语言模型前言DCP用到了Transformer,其很多实现的Motivation都来自于Sq2Sq的启发。所以重新回顾学习语言模型。Reference: 《Dive into Deep Learning》语言模型语言模型是自然语言处理的重要技术。自然语言处理中最常见的数据是文本数据。 我们可以把一段自然语言文本看做一段离散的时间序列。假设一段长度为T的文本中的词依次为w1,w2,...,wTw_1,w_2,...,w_Tw1,w2,...,wT, 那么在离散的时间序列中,wt(1≤t≤T原创 2020-12-16 15:37:21 · 769 阅读 · 1 评论 -
Dynamic Graph CNN for Learning on Point Clouds(DGCNN)论文阅读笔记——核心思想:EdgeConv细析
DGCNN前言与声明因为关心的领域主要是配准,对于分类等网络的架构设计分析并没有侧重太多,主要侧重的是EdgeConv的思想。文中图片全部来自于PointNet,PointNet++,DGCNN论文中的配图。若有侵权请联系笔者删除。转载请标明出处,谢绝商业转载。论文Dynamic Graph CNN for Learning on Point CloudsWang, Yue and Sun, Yongbin...核心思想:关于EdgeConv将点云表征为一个图,G(V,ξ){\rm{G}原创 2020-12-15 20:52:26 · 1502 阅读 · 2 评论