自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 Point Stack:Advanced Feature Learning on Point Clouds using Multi-reso使用多分辨率特征和可学习池在点云上进行高级特征学习 阅读笔记

最近的点云特征学习网络在执行下游任务时经常使用源自最深层的聚合点特征。聚合点特征可能包含高语义信息,但由于采样操作和最大池,分别会损失有关粒度和非最大点特征的信息。在这项工作中,我们提出了一种新的基于MLP的特征学习网络PointStack,其中任务特定头通过广义池函数learnable pooling(LP)获得聚合多分辨率点特征的输入。因此,聚合的点特征可以有效地表示全局和局部上下文,并使网络头能够很好地理解点云中对象的全局结构和局部形状细节。根据经验,我们观察到,在形状分类和零件分割任务中,点堆栈优于

2022-07-08 17:54:15 1116

原创 重振pointnet++雄风!PointNeXt: Revisiting PointNet++ with ImprovedTraining and Scaling Strategies

在本文中,我们证明了通过改进训练和缩放策略,可以提高PointNet++的性能,使其超过当前的技术水平。更具体地说,我们量化了目前广泛使用的每种数据增强和优化技术的效果,并提出了一套改进的训练策略。这些策略可以很容易地应用于提高PointNet++和其他代表性作品的性能。我们还将反向剩余MLP块引入PointNet++以开发PointNeXt。我们证明了PointNeXt在保持高吞吐量的同时,在各种基准上比PointNet++具有更高的性能和可扩展性。这项工作旨在引导研究人员更加关注培训和缩放策略的效果,并

2022-06-19 15:20:12 2520 3

原创 Point Transformer 翻译笔记

自我注意网络已经彻底改变了自然语言处理,并在图像分类和目标检测等图像分析任务中取得了令人瞩目的进步。受此启发,我们研究了自我注意网络在三维点云处理中的应用。我们为点云设计了自我注意层,并利用这些层构建了用于语义场景分割、对象部分分割和对象分类等任务的自我注意网络。我们的点转换器设计改进了先前跨域和任务的工作。例如,在用于大规模语义场景分割的具有挑战性的S3DIS数据集上,点变换器在区域5上达到70.4%的mIoU,比最强的先验模型高出3.3个绝对百分比,并首次超过70%的mIoU阈值。...

2022-06-15 17:43:36 1244

原创 Point Transformer 论文笔记

本文思想利用self-attention这个机制来帮助我们在这些点云中提出一个好的feature来解决下游任务中的困难 点云 高维低信息密度 点云区别于像素点 这个点中包含这个点的信息还有这个点在空间中的位置信息对于任意一个数据点xi首先先找他的最近的k个点,采取knn算法取得的点的集合称为Xi第一层 输入n个点,每个点产生32个vector作为feature第二层 降采样 点减少为1/4但是深度变深了为64……第五层 降采样 点减少为1/256但是深度变深了为512第..

2022-05-20 00:24:55 198 1

原创 Point Transformer论文阅读笔记

本文思想利用self-attention这个机制来帮助我们在这些点云中提出一个好的feature来解决下游任务中的困难 点云 高维低信息密度 点云区别于像素点 这个点中包含这个点的信息还有这个点在空间中的位置信息对于任意一个数据点xi首先先找他的最近的k个点,采取knn算法取得的点的集合称为Xi第一层 输入n个点,每个点产生32个vector作为feature第二层 降采样 点减少为1/4但是深度变深了为64……第五层 降采样 点减少为1/256但是深度变深了为51...

2022-05-20 00:21:34 283

原创 一文读懂 Self-Attention机制

Self-Attention这4个Vector,他们都是考虑一整个Sequence以后才得到的Self-Attention过程Self-Attention的Input,它就是一串的Vector,那这个Vector可能是你整个Network的Input,它也可能是某个Hidden Layer的Output,这边不是用x来表示它,那这每一个b都是考虑了所有的a以后才生成出来的这里有一个特别的机制,这个机制是根据a1这个向量,找出整个很长的sequence裡面,到底哪些部分是重要的..

2022-05-18 00:42:07 272

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除