自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 我对WiCoNet,DCFAM,UDA Transformer的理解

发文单位:国防科技大学发表日期:2022.4.18数据集:有用到PotsdamCode: code刊名:IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING主要贡献:发文单位:武汉大学发表日期:2022.1.14数据集:有用到Potsdam刊名:IEEE GEOSCIENCE AND REMOTE SENSING LETTERS主要贡献:发文单位:电子科技大学发表日期:2022.10.3数据集:Vaihingen & PotsdamCode

2022-12-04 20:13:35 1031

原创 我对BANet,SeMask的理解

在Swin Transformer层之后添加了一个带有SeMask块的语义层(图b),以捕获编码器网络中的语义上下文。

2022-11-19 19:08:01 1336 2

原创 我对ABCNet(2021)的理解

本文设计了一个特征聚合模块(FAM)来合并两种类型的特征表示,同时考虑准确性和效率。与空间路径并行,上下文路径被设计为提取高级全局上下文信息并提供足够的感受野。因为空间路径和上下文路径的特征表示是互补的,但在不同的域中。上图(a)为ABCNet整体框架。

2022-10-08 11:08:32 2285

原创 我对Swin Transformer V2的理解

本文提出一种升级版SwinTransformerV2,最高参数量可达3 Billion,可处理大尺寸图像。通过提升模型容量与输入分辨率,SwinTransformer在四个代表性基准数据集上取得了新记录。

2022-08-13 18:14:36 4452

原创 我对FastFCN的理解

时下的语义分割模型通常在主干网络中使用扩张卷积来获得高分辨率的特征图,但是这样做会增加计算复杂度和内存占用。该论文提出了一种新型的联合上采样模块JPU(JointPyramidUpsampling)以取代扩张卷积,该方法有效降低了计算复杂度和内存占用,能够在多种已有模型中应用,并且不损失甚至会对最终精度有一定的提升。......

2022-07-28 11:33:39 945

原创 我对DeepLab V3的理解(基于V1和V2)

空洞卷积(AtrousConv);全连接条件随机场(Fully-connectedConditionalRandomField)。DeepLabV1为了避免池化引起的信息丢失问题,提出了空洞卷积的方式,这样可以在增大感受野的同时不增加参数数量,同时保证信息不丢失。1.2.deeplabv3论文翻译3....

2022-07-19 16:01:38 15761 1

原创 我对SegNet的理解

SegNet是Cambridge提出旨在解决自动驾驶或者智能机器人的图像语义分割深度网络,开放源码,基于caffe框架。SegNet基于FCN,修改VGG-16网络得到的语义分割网络,有两种版本的SegNet,分别为SegNet与,同时SegNet作者根据网络的深度提供了一个basic版(浅网络)SegNet和FCN思路十分相似,只是Encoder,Decoder使用的技术不一致;SegNet的编码器部分使用的是VGG16的前13层卷积网络;每个编码器层都对应一个解码器层;Encoder;;......

2022-07-16 01:34:43 2958

原创 我对AlexNet的理解

ImageNet 数据集有超过 1500 万的标注高分辨率图像,这些图像属于大约 22000 个类别;在LSVRC-2012取得了 top-5 15.3%的错误率;(top- 5 错误率是指测试图像的正确标签不在模型认为的五个最可能的便签之中的分数)为什么会有AlexNet?在AlexNet之前:处理的数据集较小(几万张图像的数量级)(如Mnist);AlexNet出现后:处理的数据集可以很大(从数百万张图像中学习几千个对象);并且不会出现严重的过拟合;为加快训练,采用非线性激活函数:ReLU;在多个

2022-07-10 18:13:06 1017

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除