![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
语义分割
文章平均质量分 52
农夫山泉2号
关于交流可以发邮件:778961303@qq.com
展开
-
【语义分割数据集】——imagenet语义分割
地址:https://github.com/LUSSeg/ImageNet-S。原创 2023-12-08 17:17:03 · 466 阅读 · 1 评论 -
【交互式分割】——数据可视化
ritm, 交互式分割。原创 2023-10-19 22:49:27 · 800 阅读 · 0 评论 -
【数据集】——SBD数据集下载链接
SBD Dataset 是一个语义边界数据集,其包含来自 PASCAL VOC 2011 数据集中 11355 张图片的注释,这些图片均基于 Amazon Mechanical Turk,其中分割之间的冲突均为手动解决,此外,每张图像均由类别级别和实例界别的分段和边界,适用于 PASCAL VOC 2011 挑战中的 20 个对象类别。该数据集由加州大学·伯克利分校于 2011 年发布,相关论文有《Semantic contours from inverse》。原创 2023-07-17 20:43:15 · 1108 阅读 · 1 评论 -
【论文】——Robust High-Resolution Video Matting with Temporal Guidance浅读
我们介绍了一种稳健、实时、高分辨率的人类视频抠图方法,该方法取得了新的最先进性能。我们的方法比以前的方法轻得多,可以在Nvidia GTX 1080Ti GPU上以76 FPS处理4K,以104 FPS处理HD。与大多数现有的逐帧作为独立图像进行视频抠图的方法不同,我们的方法使用循环架构来利用视频中的时间信息,并在时间一致性和抠图质量方面取得了显著改进。此外,我们提出了一种新的训练策略,强制我们的网络同时满足抠图和分割目标。这显著提高了我们模型的稳健性。原创 2023-06-04 14:47:42 · 768 阅读 · 0 评论 -
【数据生成】——Semantic Image Synthesis via Diffusion Models语义分割数据集生成论文浅读
Denoising Diffusion Probabilistic Models (DDPMs) 在各种图像生成任务中取得了显著的成功,相比之下,生成对抗网络 (GANs) 的表现不尽如人意。最近的语义图像合成工作主要遵循事实上的基于 GAN 的方法,这可能导致生成图像的质量或多样性不尽如人意。在本文中,我们提出了一种基于DDPM 的语义图像合成的新框架。与以前的条件扩散模型直接将语义布局和噪声图像作为输入到 U-Net 结构不同,我们的框架对语义布局和噪声图像进行了不同的处理。原创 2023-05-01 11:45:02 · 1892 阅读 · 2 评论 -
【分割】——segment anything论文浅读,分割界的GPT
我们介绍了“分割任何东西”(SA)项目:一项新的图像分割任务、模型和数据集。利用我们高效的模型在数据收集循环中,我们建立了迄今为止最大的分割数据集,拥有超过11百万张经过许可且尊重隐私的图像上的10亿个掩码。该模型经过设计和训练,可以进行提示,因此它可以零点转移到新的图像分布和任务。我们评估了它在众多任务上的能力,并发现它的零点性能令人印象深刻——通常与甚至优于以前的完全监督结果相竞争。原创 2023-04-06 23:45:00 · 428 阅读 · 0 评论 -
【语义分割数据集】——cityscape数据集类别名称
转载自:https://blog.csdn.net/zz2230633069/article/details/84591532/home/zzp/SSD_ping/anaconda3/envs/z1/bin/python /home/zzp/SSD_ping/my-root-path/My-core-python/pytorch-deeplabV3+/cityscapesScripts-master/cityscapesscripts/helpers/labels.pyList of citysca.转载 2022-04-19 14:35:35 · 2056 阅读 · 0 评论 -
【数据集】——视频语义分割数据集VSPW
数据集, vspw转载自:https://zhuanlan.zhihu.com/p/3628690701. 简介视频语义分割是计算机视觉领域的一个重要任务,而目前仍缺少大规模的数据集。之前用作视频语义分割的数据集,Cityscapes,NYUv2,CamVid,均有各自的局限性。比如,Cityscapes 和 CamVid仅关注单一场景(街道场景);Cityscapes,NYUv2 没有时序的标注,仅仅标注一个视频的某一帧,严格来说是图片数据集而非视频分割数据集;CamVid规模很小,仅有6个标注.转载 2022-04-11 16:52:55 · 1382 阅读 · 0 评论 -
【语义分割】——国内街景的语义分割图片
语义分割,国内街景1. UA-DETRAC2. hw_seg找以下作者。https://blog.csdn.net/qq_39197555/article/details/112155822原创 2022-03-21 20:36:21 · 1023 阅读 · 0 评论 -
【idd】——印度自动驾驶场景语义分割数据集(解析代码)
语义分割,街景场景简介该数据集由安装在汽车上的前置摄像头获得的图像组成。这辆车在海德拉巴、班加罗尔等城市及其郊区行驶。图像大多是1080p分辨率,但也有一些图像是720p和其他分辨率。我们的数据集标注有独特的标签,如广告牌、机动人力车、动物等。此外,我们亦会留意道路旁可能安全的驾驶区域。数据集的标签被组织为4级层次结构。每个级别都给出了唯一的整数标识符。如下图所示:y轴上每个标签的像素数。四个级别的标签层次结构和中间级别(级别2,级别3)的标签id。将用于预测和地面真实掩模的颜色编码分.原创 2022-03-16 11:35:43 · 5378 阅读 · 1 评论 -
【语义分割数据集】——常见语义分割数据集的下载地址
语义分割,数据集直接参考该项目:https://github.com/mseg-dataset/mseg-api,里面有常见的语义分割数据的下载脚本,比如SUNRGBD数据集的。SUNRGBD_DST_DIR=$1mkdir -p $SUNRGBD_DST_DIR# ------- Downloading ---------------------------echo "Downloading SUN RGB-D dataset..."cd $SUNRGBD_DST_DIR# Co.原创 2022-03-14 10:15:00 · 1261 阅读 · 0 评论 -
【PIL】——语义分割label图片的保存
pil, 语义分割用PIL中的L模式。examplenew_mask = Image.fromarray(new_mask, mode='L')原创 2021-11-09 10:20:24 · 395 阅读 · 0 评论 -
【tensorrt】——语义分割推理结果不对
tensorrt原创 2021-09-15 10:59:51 · 1457 阅读 · 2 评论 -
【语义分割】——结果可视化不正确(排错)
调试1. 排查的方向数据预处理cuda的索引2.原创 2021-09-14 00:15:26 · 364 阅读 · 0 评论 -
【视频语义分割】——Semantic Video CNNs through Representation Warping,ICCV2017
视频语义分割code1. 原理转载自:https://zhuanlan.zhihu.com/p/52014957 图3 模型结构这篇文章提出了一个叫做Netwarp的结构,它的主要作用是利用光流把前一帧的特征搬移到当前帧,进而起到一定程度上特征增强的作用,其中光流定义为两张图像之间对应像素移动的向量,这个结构可以插入到video 的帧与帧之间(如图3所示)。 图4 Netwarp模块模块的具体操作如图4所示,模型的输入是两张连续的帧,(t-1)代表前一帧,t代表当前帧,第一步是计算两帧.原创 2021-09-14 00:14:28 · 696 阅读 · 0 评论 -
【分割】——语义标注中的交互式分割
segentation1. 交互式分割概念2. 应用方向图像编辑图像标注组件分割3. 交互式标注工具label imagelabelme4. 交互分割的种类ROI,封闭曲线seed,点,线5. 交互式分割的发展6. RITM算法原创 2021-09-06 23:59:27 · 1048 阅读 · 0 评论 -
【语义分割论文阅读】——RobustNet: Improving Domain Generalization in Urban-Scene Segmentation
论文:https://arxiv.org/pdf/2103.15597.pdfcode:https://github.com/shachoi/RobustNet来自: CVPR2021, LG读懂一篇论文,是用自己的话说出来配合论文一起看更好简介:论文从白化变换的角度出发解决语义分割中的域适应问题(训练和测试时,场景、天气、季节等不一样的问题)。1. 理论基础1.1 白化变换白化变换可参考维基百科:Whitening_transformation.首先X∈RC×HWX\in R^{.原创 2021-08-18 15:57:27 · 1304 阅读 · 0 评论 -
【语义分割】——分割结果可视化
segmentation核心代码#pragma omp parallel for for (size_t i = 0; i < outputDim.d[1]; i++) { // h for (size_t j = 0; j < outputDim.d[2]; j++) { // w int idx = i * outputDim.d[2] + j; .原创 2021-08-09 17:04:05 · 3564 阅读 · 0 评论 -
【语义分割】——STDC-Seg快又强 + 细节边缘的监督
papercode:STDC-Seg自己修改的code:https://github.com/chenjun2hao/STDC-Seg, 在pytorch1.7.0上测试通过来自美团0. 实时语义系列AttaNet:strip pooling的进化,快又好实时语义分割DDRNet1. 简介前面也介绍了几篇强大的实时语义分割项目或者paper,这里再介绍一个来自美团CVPR2021的项目:STDC-Seg,既然是上了CVPR的,肯定是精度又高,速度上也很能打的。这里先看论文给出的直观对.原创 2021-07-08 15:20:22 · 7217 阅读 · 17 评论 -
【语义分割】——计算IOU
参考自:https://github.com/dilligencer-zrj/code_zoo/blob/master/compute_mIOUpython版本直接就是对每个类别进行求解交集和并集numpy版本采用numpy的bitcount分布。这里的分布做了一种变换target × nclass + pred,这样预测正确的像素点都在hist矩阵的对角线上。import numpy as npfrom numpy.lib.twodim_base import diagsize = (.原创 2021-07-06 18:23:13 · 2269 阅读 · 0 评论 -
【语义分割论文】——AttaNet:strip pooling的进化,快又好
语义分割,attanet,AAAI2021Code:https://github.com/songqi-github/AttaNet论文:https://arxiv.org/abs/2103.05930简介AttaNet主要由两个模块组成:条状注意力模块(SAM)和注意力融合模块(AFM)。对低精度分割任务图像的观察得出,垂直条带面积明显大于水平条带面积,SAM利用条带化操作,在保留大部分上下文信息的同时,大幅降低了垂直方向全局上下文编码的复杂性,与非极大值方法相比。AFM采用跨层次聚合策略限制.原创 2021-05-20 14:24:05 · 1904 阅读 · 4 评论 -
【opencv】——c++中语义分割结果可视化
c++,opencv,语义分割转载自:Prerequisites-of-On-line-Semantic-VSLAM核心代码,不是项目工程,不能直接使用code// 颜色映射关系const cv::Vec3b colorMap[]={ cv::Vec3b(128, 64,128), cv::Vec3b(244, 35,232), cv::Vec3b( 70, 70, 70), cv::Vec3b(102,102,156), cv::Vec3b(190,.转载 2021-03-29 14:47:25 · 1049 阅读 · 0 评论 -
【个人开源】——实时语义分割DDRNet
源码: DDRNet.py关键词: 实时语义分割原理介绍请看又快又强:Deep Dual-resolution Networks for Real-time and Accurate Semantic Segmentation of RoadDeep Dual-resolution Networks for Real-time and Accurate Semantic Segmentation of Road ScenesIntroductionThis is the unofficial .原创 2021-02-24 20:01:30 · 5149 阅读 · 28 评论 -
【视频实例分割】——STEm-Seg: Spatio-temporal Embeddings for Instance Segmentation in Videos
论文:https://arxiv.org/pdf/2003.08429.pdfcode:https://github.com/sabarim/STEm-Seg关键词: 视频实例分割用于视频中的实例分割的现有方法通常包括遵循检测跟踪范式并将视频剪辑建模为图像序列的多级管线。多个网络用于检测单个帧中的对象,然后将这些检测随时间关联起来。因此,这些方法通常是非端对端可训练的,并且高度适合于特定任务。在本文中,我们提出了一种不同的方法,该方法非常适合涉及视频中实例分割的各种任务。特别是,我们将视频剪辑建模.原创 2021-02-01 17:22:08 · 857 阅读 · 0 评论 -
【语义分割数据】——Scannet下载与简介
https://github.com/ScanNet/ScanNet官网:http://www.scan-net.org/关键词:1. 简介ScanNet是一个RGB-D视频数据集,在超过1500次扫描中包含250万点击量,使用3D摄像机姿态、表面重建和实例级语义分割进行注释。为了收集这些数据,我们设计了一个易于使用和可扩展的RGB-D捕获系统,包括自动表面重建和众包语义注释。我们表明,使用这些数据有助于在几个3D场景理解任务上实现最先进的性能,包括3D对象分类、语义体素标记和CAD模型检索。.原创 2021-01-27 20:08:20 · 10045 阅读 · 208 评论 -
【PIL】——PIL灰度图以调色板保存成彩图
目的: 为了可视化语义分割的label图像Codeimport numpy as npfrom PIL import Imagelabel = Image.open('label.png')bin_colormap = np.random.randint(0, 255, (256, 3)) # 可视化的颜色bin_colormap = bin_colormap.astype(np.uint8)visualimg = Image.fromarray(label, "P")pale原创 2020-12-14 17:53:30 · 2539 阅读 · 1 评论 -
【语义分割】——SUN_RGBD数据集解析
地址:http://rgbd.cs.princeton.edu/简介:虽然RGB-D传感器已经在一些视觉任务上实现了重大突破,比如3D重建,但我们还没有在高级场景理解上实现类似的性能飞跃。造成这种情况的主要原因之一可能是缺乏一个具有合理大小的基准,其中包括用于培训的3D注释和用于评估的3D度量标准。在本文中,我们提出了一个RGB-D基准套件,目的是为了在所有主要场景理解任务中推进最新的技术水平。我们的数据集由四个不同的传感器捕获,包含10,000张RGB-D图像,其规模与PASCAL VOC类似。整.原创 2020-12-14 17:35:17 · 6777 阅读 · 11 评论 -
【语义分割】——2020来看PointRend的影子
论文:arXivcode:detectron2SegmenTron关键词:语义分割,实例分割,边缘细化,迭代细分1. 核心思想上采样困难点修补。因为即使是双线性上采样,还是对物体的边缘有损伤,因为边缘细节部分的像素点,相对于平滑区域少很多,这样在上采样之后就容易出现物体边缘不够好的问题。论文提出了困难点,在图像平面中灵活,自适应的选择点(points)来预测分割标签。直观上,这些点应该更密集地位于高频区域附近,如对象边界,类似于光线追踪中的抗锯齿问题(anti-aliasing,也译为.原创 2020-12-09 17:24:46 · 1039 阅读 · 0 评论 -
【语义分割】——分割边缘细化/CascadePSP
出处:腾讯code:https://github.com/hkchengrex/CascadePSP论文:https://arxiv.org/pdf/2005.02551.pdf转载自:https://www.codenong.com/cs106633876/3. 网络推理流程3.2. Global and Local Cascade Refinementin testing,我们使用了Global Step 和 Local Step来处理高分辨率的分割细化通过使用相同训练的refinem.转载 2020-12-04 16:28:47 · 5566 阅读 · 0 评论 -
【语义分割】——多尺度注意力
转载自:https://mp.weixin.qq.com/s/r_U3XWeLjlMzyaNGLW7aXw作者:Andrew Tao and Karan Sapra编译:ronghuaiyang有一项重要的技术,通常用于自动驾驶、医学成像,甚至缩放虚拟背景:“语义分割。这是将图像中的像素标记为属于N类中的一个(N是任意数量的类)的过程,这些类可以是像汽车、道路、人或树这样的东西。就医学图像而言,类别对应于不同的器官或解剖结构。NVIDIA Research正在研究语义分割,因为它是一项广泛适用的技术转载 2020-12-02 14:19:54 · 2079 阅读 · 0 评论 -
【语义分割】——读源码、论文理解OCRNet
论文:https://arxiv.org/pdf/1909.11065.pdf源码:https://git.io/openseg and https://git.io/HRNet.OCR.1. 核心思想微软亚洲研究院提出的 OCR 方法的主要思想是显式地把像素分类问题转化成物体区域分类问题,这与语义分割问题的原始定义是一致的,即每一个像素的类别就是该像素属于的物体的类别,换言之,与 PSPNet 和 DeepLabv3 的上下文信息最主要的不同就在于 OCR 方法显式地增强了物体信息。链接:ht.原创 2020-11-27 09:45:53 · 2821 阅读 · 5 评论 -
【语义分割】——阅读代码理解/Semantic Flow for Fast and Accurate Scene Parsing
源码:https://github.com/lxtGH/SFSegNets来源: 北大特点: 当前速度和精度的完美优化,是第一篇在Cityscapes上实现了80.4%的mIoU,帧速率为26 FPS的文章1. 简介语义分割,也称为像素级分类问题,其输出和输入分辨率相同(如题图中,左边为2048x1024分辨率的Cityscapes街景图像,输入模型,得到右边同样分辨率的语义图)。由此,语义分割具有两大需求,即高分辨率和高层语义,而这两个需求和卷积网络设计是矛盾的。卷积网络从输入到输出,会经过多.原创 2020-11-24 16:39:20 · 2715 阅读 · 7 评论 -
【语义分割】——labelme标注的分割数据处理
可以参考:labelme标注语义数据codeimport argparseimport base64import jsonimport globimport osimport os.path as ospimport numpy as npimport imgvizimport PIL.Imagefrom labelme.logger import loggerfrom labelme import utilsdef main(): logger.warning(原创 2020-11-23 10:57:14 · 744 阅读 · 1 评论 -
【语义分割】——FCN
1. FCN作者在原文种给出3种网络结果对比,明显可以看出效果:FCN-32s < FCN-16s < FCN-8s,即使用多层feature融合有利于提高分割准确性。图6原创 2020-11-18 16:18:05 · 276 阅读 · 0 评论 -
【语义分割】——多层特征的融合
转载自:语义分割-多层特征融合尊重原创,请读原文语义分割,也称为像素级分类问题,其输出和输入分辨率相同(如题图中,左边为2048x1024分辨率的Cityscapes街景图像,输入模型,得到右边同样分辨率的语义图)。由此,语义分割具有两大需求,即高分辨率和高层语义,而这两个需求和卷积网络设计是矛盾的。卷积网络从输入到输出,会经过多个下采样层(一般为5个,输出原图1/32的特征图),从而逐步扩大视野获取高层语义特征,高层语义特征靠近输出端但分辨率低,高分率特征靠近输入端但语义层次低。高层特征和底层特征.转载 2020-11-18 15:11:10 · 3805 阅读 · 0 评论 -
【个人开源】——tensorrt自定义插件,双线性上采样
1. resizebilinear选择5.1的分支。onnx-tensorrtonnx模型:百度网盘, 提取码: s7s1原创 2020-11-18 13:53:34 · 752 阅读 · 0 评论 -
【数据集】——NYU Depth Dataset V2简介
简介:NYU-Depth V2数据集由微软Kinect的RGB和Depth摄像机记录的各种室内场景的视频序列组成。它的特点:1449张标注的RGB图片和深度图来自3个城市,464个场景407024张没有标注的图片每个对象都有一个类和一个实例号(cup1、cup2、cup3等),像实例分割数据集有几个部分:标签:视频数据的一个子集,带有密集的多类标签。这些数据也经过预处理,以填补缺失的深度标签。Raw: Kinect提供的原始rgb、深度和加速度计数据。工具箱:用于操作数据和标签的有用函原创 2020-10-28 18:45:13 · 13655 阅读 · 2 评论 -
【语义分割】——入门到放弃
转载自:https://www.zhihu.com/question/390783647/answer/1221984335说句泼冷水的话,对大多数研究从业人员来说语义分割目前已经达到瓶颈期了。顶会顶刊paper看来看去真没啥突破:(1)手动设计网络结构 -> NAS搜索;(2)固定感受野 -> 引入空间注意力做感受野自动调节;(3)效果提升不上去 -> 换个思路做实时分割来对比结果;(4)自监督太热门 -> 引入弱监督 (GAN, 知识蒸馏, …) + trick =转载 2020-10-09 18:01:23 · 455 阅读 · 0 评论 -
【语义分割】——VOC12AUG数据集解析,标签制作,可视化
简介简介参考:PASCAL VOC 2012 and SBD (the augment dataset) 总结地址: http://home.bharathh.info/pubs/codes/SBD/download.html下载下来的的数据集有 cls img inst 三个文件夹。cls:语义标签,但是是.mat格式img:文件夹则是样本1. mat转语义png这里直接上code。 只需要修改main函数中的 input_path output_path就ok了from __futu原创 2020-09-14 16:20:12 · 2974 阅读 · 0 评论 -
【个人项目】——细腻的人像分割
项目地址: segmentation.pytorch前面介绍了,一个人像分割数据集。这里采用该数据做了人像分割的小demo。Supervisely 人像分割数据集格式转换1. 测试1.1 环境采用本机的torch1401.2 下载预训练的模型到ckpt/ade20k-resnet50dilated-ppm_deepsup预训练模型 | 提取码: 67xi1.2 测试python test.py --config config/person-resnet50dilated-ppm_de.原创 2020-09-14 11:42:04 · 2975 阅读 · 6 评论