自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(26)
  • 收藏
  • 关注

原创 Attention UNet:上采样加入门控

Attention UNet

2024-05-05 22:27:02 98

原创 大视觉模型

https://mp.weixin.qq.com/s/TuMiml-YwN6TuWSprNl5eQ?poc_token=HNySN2ajnCaSZ-EX2UBwL0F0QP6e7k9C7u1F7LUE

2024-05-05 22:13:35 115

原创 BiSeNetFormer

https://mp.weixin.qq.com/s/LTbD0Q6Sq3zQ5gvhEm3h5A

2024-05-05 22:12:34 91

原创 字节发布视觉基础模型ViTamin

https://mp.weixin.qq.com/s/ew_8iPNALzItTuBYfd0PIw

2024-05-05 22:09:25 115

原创 OCRNet

代码:https://arxiv.org/abs/1909.11065。

2024-05-05 21:50:51 391

原创 RankSeg: Adaptive Pixel Classification with Image Category Ranking for Segmentation, ECCV 2022

代码地址:https://github.com/openseg-group/RankSeg。

2024-05-05 21:49:54 262

原创 DetectoRS:门控融合

论文地址:https://arxiv.org/pdf/2006.02334。

2024-05-05 21:46:50 79

原创 SegFix:预测边界和预测方向来修正边界

论文地址:https://arxiv.org/pdf/2007.04269.pdf。

2024-05-05 21:38:53 455

原创 数据集的图例怎么生成

数据集有13个分类,每个分类都有颜色,怎么生成色块的图例。这是S3DIS数据集的图例。

2024-04-24 21:35:40 549

原创 Anaconda换国内源清华源

conda换清华的源

2024-04-16 20:47:17 536

原创 HPTNet:为点云提取表面特征

论文题目:High-Performance Feature Extraction Network for Point Cloud Semantic Segmentation论文地址:https://ieeexplore.ieee.org/abstract/document/10474110分为三个部分:平面几何特征的提取,几何和语义特征融合以及Transformer提取特征。

2024-04-16 13:58:54 185

原创 Stratified Transformer的训练参数设置

【代码】Stratified Transformer的训练参数设置。

2024-04-13 00:00:07 144 1

原创 PyTorch中的Grad-CAM库:可视化对结果有影响的区域

代码地址:https://gitcode.com/jacobgil/pytorch-grad-cam。如果传递一个包含多个层的列表,CAM将在它们之间进行平均。这在你不确定哪个层会表现最佳时非常有用。Resnet18和Resnet50: model.layer4[-1]VGG和Densenet161: model.features[-1]思路是梯度作为每个channel每个位置的权重,和特征图进行相乘。需要选择用于计算CAM的目标层。

2024-04-12 17:38:33 784

原创 PointTransformer数据增强模块怎么写

代码地址:https://github.com/POSTECH-CVLab/point-transformer/blob/10d43ab5210fc93ffa15886f2a4c6460cc308780/tool/train.py#L165。写一个Compose函数来进行数据增强,transform是一个list,每个里面都是一个类的instance。数据增强的方式是随机尺寸放缩、自动对比度、色彩平移、调节对比度饱和度和随机噪声。依次定义不同的数据增强方式。

2024-04-11 19:47:25 412

原创 Point Transformer v2的参数量怎么计算

代码地址:https://github.com/Pointcept/Pointcept/blob/main/pointcept/models/point_transformer_v2/point_transformer_v2m2_base.py。

2024-04-10 22:16:55 265 1

原创 Point Transformer v1的参数量怎么计算

代码地址:https://github.com/Pointcept/Pointcept/blob/main/pointcept/models/point_transformer/point_transformer_seg.py。论文地址:https://arxiv.org/pdf/2012.09164.pdf。可以看出point transformer的代码量比较小。

2024-04-10 16:11:53 395 1

原创 PointTransformer v1中的TransitionUp和TransitionDown模块

代码地址:https://github.com/POSTECH-CVLab/point-transformer/blob/master/model/pointtransformer/pointtransformer_seg.py。相当于最远距离采样+maxpool,中间有一些线性转换和非线形激活层。

2024-04-08 16:37:44 212

原创 PointTransformer中Dataloader中的offset是什么意思

假设batch数目为4,四个sample中点的数目分别是74740,24149,45671和77110。代码地址: https://github.com/POSTECH-CVLab/point-transformer/blob/master/util/data_util.py。每个batch的总点数不同。如第一个batch拼接后221670个点,第二个batch拼接后282963个点。方法是直接把所有batch拼接,使用offset来记录每个batch的最后一个点的位置。

2024-04-08 15:51:55 338

原创 Python中的共享内存:SharedArray

ShareArray的文档地址:https://pypi.org/project/SharedArray/3.0.0/

2024-04-07 22:28:19 550

原创 S3DIS数据集怎么拼接并生成场景npy文件

从github上下载,分别是每个房间Annotations的文件名列表和数据集的类别名。每个房间内每个物体由单独的文件描述,类别名为文件名。4、每个房间合并成一个.npy文件。S3DIS数据集共有6个area。3、把文件名转换成点的label。2、读出来每个房间的物体的名字。1、读出来每个房间的文件名。每个area有多个房间。

2024-04-07 20:32:38 536

原创 PointTransformerBlock的实现

【代码】PointTransformerBlock的实现。

2024-04-05 15:36:29 177 1

原创 PointTransformerLayer的实现

【代码】PointTransformerLayer的实现。

2024-04-05 15:32:31 295 1

原创 PointTransformer v2 分组向量注意力模块代码解读

两个选项分别是self.pe_multiplier和self.pe_bias,以不同方式把位置编码融入relation的计算。对channel进行分组,每个组共用attention。

2024-04-04 21:40:15 271 1

原创 点云语义分割中的数据增强和训练设置

https://proceedings.neurips.cc/paper_files/paper/2022/file/d78ece6613953f46501b958b7bb4582f-Supplemental-Conference.pdfhttps://openaccess.thecvf.com/content/CVPR2022/papers/Lai_Stratified_Transformer_for_3D_Point_Cloud_Segmentation_CVPR_2022_paper.pdf

2024-04-02 00:34:07 244 1

原创 Point Transformer V2: 分组的矢量注意力+分区池化

克服了Point Transformer的局限性。首次提出分组的矢量注意力,更加有效。设计了分组权重编码层,继承了可学习权重编码和多头注意力的优点。额外的位置编码加强了注意力的位置信息。设计了新颖轻量级的基于分区的池化方法,实现更好的空间对其和更高效的采样。

2024-03-28 21:57:50 725

原创 Point Transformer v1:把Vector Self-attention应用到点云任务

将自注意力网络迁移到3D点云处理。

2024-03-28 16:33:18 818

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除