2022暑假机器学习
文章平均质量分 85
像梦一样自由al
这个作者很懒,什么都没留下…
展开
-
我对WiCoNet,DCFAM,UDA Transformer的理解
发文单位:国防科技大学发表日期:2022.4.18数据集:有用到PotsdamCode: code刊名:IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING主要贡献:发文单位:武汉大学发表日期:2022.1.14数据集:有用到Potsdam刊名:IEEE GEOSCIENCE AND REMOTE SENSING LETTERS主要贡献:发文单位:电子科技大学发表日期:2022.10.3数据集:Vaihingen & PotsdamCode原创 2022-12-04 20:13:35 · 902 阅读 · 1 评论 -
我对BANet,SeMask的理解
在Swin Transformer层之后添加了一个带有SeMask块的语义层(图b),以捕获编码器网络中的语义上下文。原创 2022-11-19 19:08:01 · 1132 阅读 · 2 评论 -
我对ABCNet(2021)的理解
本文设计了一个特征聚合模块(FAM)来合并两种类型的特征表示,同时考虑准确性和效率。与空间路径并行,上下文路径被设计为提取高级全局上下文信息并提供足够的感受野。因为空间路径和上下文路径的特征表示是互补的,但在不同的域中。上图(a)为ABCNet整体框架。原创 2022-10-08 11:08:32 · 2020 阅读 · 0 评论 -
我对Swin Transformer V2的理解
本文提出一种升级版SwinTransformerV2,最高参数量可达3 Billion,可处理大尺寸图像。通过提升模型容量与输入分辨率,SwinTransformer在四个代表性基准数据集上取得了新记录。原创 2022-08-13 18:14:36 · 3932 阅读 · 0 评论 -
我对FastFCN的理解
时下的语义分割模型通常在主干网络中使用扩张卷积来获得高分辨率的特征图,但是这样做会增加计算复杂度和内存占用。该论文提出了一种新型的联合上采样模块JPU(JointPyramidUpsampling)以取代扩张卷积,该方法有效降低了计算复杂度和内存占用,能够在多种已有模型中应用,并且不损失甚至会对最终精度有一定的提升。......原创 2022-07-28 11:33:39 · 857 阅读 · 0 评论 -
我对DeepLab V3的理解(基于V1和V2)
空洞卷积(AtrousConv);全连接条件随机场(Fully-connectedConditionalRandomField)。DeepLabV1为了避免池化引起的信息丢失问题,提出了空洞卷积的方式,这样可以在增大感受野的同时不增加参数数量,同时保证信息不丢失。1.2.deeplabv3论文翻译3....原创 2022-07-19 16:01:38 · 15589 阅读 · 1 评论 -
我对SegNet的理解
SegNet是Cambridge提出旨在解决自动驾驶或者智能机器人的图像语义分割深度网络,开放源码,基于caffe框架。SegNet基于FCN,修改VGG-16网络得到的语义分割网络,有两种版本的SegNet,分别为SegNet与,同时SegNet作者根据网络的深度提供了一个basic版(浅网络)SegNet和FCN思路十分相似,只是Encoder,Decoder使用的技术不一致;SegNet的编码器部分使用的是VGG16的前13层卷积网络;每个编码器层都对应一个解码器层;Encoder;;......原创 2022-07-16 01:34:43 · 2843 阅读 · 0 评论 -
我对AlexNet的理解
ImageNet 数据集有超过 1500 万的标注高分辨率图像,这些图像属于大约 22000 个类别;在LSVRC-2012取得了 top-5 15.3%的错误率;(top- 5 错误率是指测试图像的正确标签不在模型认为的五个最可能的便签之中的分数)为什么会有AlexNet?在AlexNet之前:处理的数据集较小(几万张图像的数量级)(如Mnist);AlexNet出现后:处理的数据集可以很大(从数百万张图像中学习几千个对象);并且不会出现严重的过拟合;为加快训练,采用非线性激活函数:ReLU;在多个原创 2022-07-10 18:13:06 · 936 阅读 · 0 评论