自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(31)
  • 收藏
  • 关注

原创 Attention UNet:上采样加入门控

Attention UNet

2024-05-05 22:27:02 85

原创 RefineNet:多尺度特征通过链式pooling融合

代码:https://github.com/DrSleep/refinenet-pytorch。

2024-05-05 22:24:46 117

原创 大视觉模型

https://mp.weixin.qq.com/s/TuMiml-YwN6TuWSprNl5eQ?poc_token=HNySN2ajnCaSZ-EX2UBwL0F0QP6e7k9C7u1F7LUE

2024-05-05 22:13:35 108

原创 BiSeNetFormer

https://mp.weixin.qq.com/s/LTbD0Q6Sq3zQ5gvhEm3h5A

2024-05-05 22:12:34 81

原创 字节发布视觉基础模型ViTamin

https://mp.weixin.qq.com/s/ew_8iPNALzItTuBYfd0PIw

2024-05-05 22:09:25 104

原创 PSPNet多尺度池化增大感受野

Pyramid Scene Parsing Network

2024-05-05 22:01:50 360

原创 OCRNet

代码:https://arxiv.org/abs/1909.11065。

2024-05-05 21:50:51 380

原创 RankSeg: Adaptive Pixel Classification with Image Category Ranking for Segmentation, ECCV 2022

代码地址:https://github.com/openseg-group/RankSeg。

2024-05-05 21:49:54 261

原创 DetectoRS:门控融合

论文地址:https://arxiv.org/pdf/2006.02334。

2024-05-05 21:46:50 74

原创 SegFix:预测边界和预测方向来修正边界

论文地址:https://arxiv.org/pdf/2007.04269.pdf。

2024-05-05 21:38:53 437

原创 数据集的图例怎么生成

数据集有13个分类,每个分类都有颜色,怎么生成色块的图例。这是S3DIS数据集的图例。

2024-04-24 21:35:40 540

原创 点云语义分割:ConDaFromer代码解读

else:else:else:用设定的增强方式增强。stem定义:网络定义网络定义:下采样插值一个Window_Attention模块):dim,return outforward_qkv_one_pass进行attention的计算。

2024-04-22 02:18:19 759

原创 Anaconda换国内源清华源

conda换清华的源

2024-04-16 20:47:17 367

原创 HPTNet:为点云提取表面特征

论文题目:High-Performance Feature Extraction Network for Point Cloud Semantic Segmentation论文地址:https://ieeexplore.ieee.org/abstract/document/10474110分为三个部分:平面几何特征的提取,几何和语义特征融合以及Transformer提取特征。

2024-04-16 13:58:54 177

原创 点云+知识蒸馏怎么减少参数量提高效果

三种类型的蒸馏: Structure Distillation,Attention Transfer 和 Label Distillation。论文地址:https://ieeexplore.ieee.org/abstract/document/10422019。论文地址:https://ieeexplore.ieee.org/abstract/document/10462927。期刊中调整了三种类型蒸馏的位置和出现的次数。结果:先堆叠再蒸馏能提升模型的效果。思路是先堆叠,再蒸馏。

2024-04-16 10:30:44 571

原创 Stratified Transformer的训练参数设置

【代码】Stratified Transformer的训练参数设置。

2024-04-13 00:00:07 118 1

原创 PyTorch中的Grad-CAM库:可视化对结果有影响的区域

代码地址:https://gitcode.com/jacobgil/pytorch-grad-cam。如果传递一个包含多个层的列表,CAM将在它们之间进行平均。这在你不确定哪个层会表现最佳时非常有用。Resnet18和Resnet50: model.layer4[-1]VGG和Densenet161: model.features[-1]思路是梯度作为每个channel每个位置的权重,和特征图进行相乘。需要选择用于计算CAM的目标层。

2024-04-12 17:38:33 553

原创 PointTransformer数据增强模块怎么写

代码地址:https://github.com/POSTECH-CVLab/point-transformer/blob/10d43ab5210fc93ffa15886f2a4c6460cc308780/tool/train.py#L165。写一个Compose函数来进行数据增强,transform是一个list,每个里面都是一个类的instance。数据增强的方式是随机尺寸放缩、自动对比度、色彩平移、调节对比度饱和度和随机噪声。依次定义不同的数据增强方式。

2024-04-11 19:47:25 395

原创 Point Transformer v2的参数量怎么计算

代码地址:https://github.com/Pointcept/Pointcept/blob/main/pointcept/models/point_transformer_v2/point_transformer_v2m2_base.py。

2024-04-10 22:16:55 251 1

原创 Point Transformer v1的参数量怎么计算

代码地址:https://github.com/Pointcept/Pointcept/blob/main/pointcept/models/point_transformer/point_transformer_seg.py。论文地址:https://arxiv.org/pdf/2012.09164.pdf。可以看出point transformer的代码量比较小。

2024-04-10 16:11:53 384 1

原创 PointTransformer v1中的TransitionUp和TransitionDown模块

代码地址:https://github.com/POSTECH-CVLab/point-transformer/blob/master/model/pointtransformer/pointtransformer_seg.py。相当于最远距离采样+maxpool,中间有一些线性转换和非线形激活层。

2024-04-08 16:37:44 193

原创 PointTransformer中Dataloader中的offset是什么意思

假设batch数目为4,四个sample中点的数目分别是74740,24149,45671和77110。代码地址: https://github.com/POSTECH-CVLab/point-transformer/blob/master/util/data_util.py。每个batch的总点数不同。如第一个batch拼接后221670个点,第二个batch拼接后282963个点。方法是直接把所有batch拼接,使用offset来记录每个batch的最后一个点的位置。

2024-04-08 15:51:55 325

原创 Python中的共享内存:SharedArray

ShareArray的文档地址:https://pypi.org/project/SharedArray/3.0.0/

2024-04-07 22:28:19 458

原创 S3DIS数据集怎么拼接并生成场景npy文件

从github上下载,分别是每个房间Annotations的文件名列表和数据集的类别名。每个房间内每个物体由单独的文件描述,类别名为文件名。4、每个房间合并成一个.npy文件。S3DIS数据集共有6个area。3、把文件名转换成点的label。2、读出来每个房间的物体的名字。1、读出来每个房间的文件名。每个area有多个房间。

2024-04-07 20:32:38 488

原创 PointTransformerBlock的实现

【代码】PointTransformerBlock的实现。

2024-04-05 15:36:29 174 1

原创 PointTransformerLayer的实现

【代码】PointTransformerLayer的实现。

2024-04-05 15:32:31 286 1

原创 PointTransformer v2 分组向量注意力模块代码解读

两个选项分别是self.pe_multiplier和self.pe_bias,以不同方式把位置编码融入relation的计算。对channel进行分组,每个组共用attention。

2024-04-04 21:40:15 226 1

原创 一文看懂PointTransformer v1代码

它提供了简洁而强大的方式来定义和执行各种操作,如转置、重排、合并和拆分张量的维度。pytorch语句也能实现相同的功能。偏移量(Offset)是批量数据中点云之间的分隔符,类似于PyG中的批量(Batch)的概念。stride=2的情况下最远点采样,否则按照 linear, bn, relu的顺序进行前向传播。当有pxo1和pxo2的时候,把pxo2插值倒更大的尺寸,把pxo1和pxo2特征拼接。当只有pxo1的时候,计算pxo1在更小尺寸上的均值,把均值和原始特征拼接。网络结构参数设置如上。

2024-04-04 21:03:01 608 1

原创 点云语义分割中的数据增强和训练设置

https://proceedings.neurips.cc/paper_files/paper/2022/file/d78ece6613953f46501b958b7bb4582f-Supplemental-Conference.pdfhttps://openaccess.thecvf.com/content/CVPR2022/papers/Lai_Stratified_Transformer_for_3D_Point_Cloud_Segmentation_CVPR_2022_paper.pdf

2024-04-02 00:34:07 225 1

原创 Point Transformer V2: 分组的矢量注意力+分区池化

克服了Point Transformer的局限性。首次提出分组的矢量注意力,更加有效。设计了分组权重编码层,继承了可学习权重编码和多头注意力的优点。额外的位置编码加强了注意力的位置信息。设计了新颖轻量级的基于分区的池化方法,实现更好的空间对其和更高效的采样。

2024-03-28 21:57:50 687

原创 Point Transformer v1:把Vector Self-attention应用到点云任务

将自注意力网络迁移到3D点云处理。

2024-03-28 16:33:18 789

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除